คอมพิวเตอร์ที่เรียนรู้จากบิ๊กดาต้า

Post Reply
brid.ladawan
Posts: 7045
Joined: 29 Mar 2013, 13:36

คอมพิวเตอร์ที่เรียนรู้จากบิ๊กดาต้า

Post by brid.ladawan »

คอมพิวเตอร์ที่เรียนรู้จากบิ๊กดาต้า

การเรียนรู้ของเครื่อง (Machine Learning) ซึ่งเป็นการศึกษาสำคัญสาขาหนึ่งที่ทำให้เครื่องคอมพิวเตอร์ พัฒนาตนเองได้จากข้อมูลรอบตัว

ในศาสตร์ด้านปัญญาประดิษฐ์ที่หลายคนได้รับรู้ รับชม จากภาพยนตร์หลายเรื่อง และจากการที่นักฟิสิกส์ชื่อก้องอย่างสตีเฟน ฮอร์คิง ออกมาบอกว่า ปัญญาประดิษฐ์อาจจะทำลายเผ่าพันธุ์มนุษย์ได้ในวันใดวันหนึ่ง กลไกสำคัญที่ทำให้สตีเฟน ฮอร์คิง คิดแบบนั้น คือ การเรียนรู้ของเครื่อง (Machine Learning) ซึ่งเป็นการศึกษาสำคัญสาขาหนึ่งที่ทำให้เครื่องคอมพิวเตอร์ พัฒนาตนเองได้จากข้อมูลรอบตัว

แท้จริงแล้วศาสตร์การเรียนรู้ของเครื่องมีมานานมาก ใกล้ ๆ กับการเกิดขึ้นของปัญญาประดิษฐ์ แถมส่วนหนึ่งของมันยังเป็นที่รู้จักกันอย่างแพร่หลาย ไม่แพ้ปัญญาประดิษฐ์เช่นกัน ไม่ว่าจะเป็นการทำเหมืองข้อมูล (เกิดทีหลัง หลังจากที่มีข้อมูลมหาศาล แต่ยังไม่อยู่ในช่วงการระเบิดของข้อมูลเหมือนในปัจจุบัน) หรือที่เป็นที่รู้จักกันอย่างมากมาย คือ ศาสตร์ด้านนิวรอลเน็ตเวิร์ก หรือโครงข่ายประสาทเทียม ที่แตกลูกหลานออกมาเป็นการเรียนรู้เชิงลึก (Deep Learning) หรือการเรียนรู้อีกมากมายหลายแบบ

ทำไมศาสตร์ด้านการเรียนรู้ของเครื่องจึงน่าสนใจ?

เพราะการเรียนรู้ของเครื่องมีหลายระดับ ทั้งการเรียนรู้ในระดับบนที่สามารถใช้สัญลักษณ์ต่าง ๆ เข้ามาช่วยในการคำนวณ การสร้างกฎทางตรรกศาสตร์จากข้อมูลที่มีอยู่ โดยอาศัยตรรกศาสตร์เป็นเครื่องมือ เราก็สามารถเขียนเป็นโปรแกรมได้ แต่เรื่องที่หลายคนหลงใหล กลายเป็นการเรียนรู้ในระดับล่าง (ในระดับการทำงานของสมอง) คือ การทำอย่างไรจะให้เครื่องคอมพิวเตอร์สามารถเลียนแบบวิธีการทำงานของสมองได้ โดยไม่ต้องเขียนโปรแกรม เรียกว่า ให้ทำงานเลียนแบบสมองมนุษย์ไปเลยจะได้หรือไม่ แนวคิดนี้ สามารถทำได้ผ่านการจำลองเซลล์ประสาทในสมอง แล้วเอามาเชื่อมกันให้เป็นโครงข่าย จนกลายเป็นโครงข่ายประสาทเทียม หรือนิวรอลเน็ตเวิร์กในที่สุด แต่เนื่องจากศักยภาพของหน่วยความจำและซีพียูในปัจจุบัน ยังไม่สามารถทำให้คอมพิวเตอร์เลียนแบบสมองมนุษย์ที่มีเซลล์ประสาทอยู่ประมาณ 1,010 เซลล์ และแต่ละเซลล์มีเส้นเชื่อมไปยังเซลล์อื่น ๆ อีก 10,000-100,000 เซลล์ ทำให้เรามีเส้นเชื่อมมหาศาลเกินกว่าพลังของซูเปอร์คอมพิวเตอร์ใด ๆ จะสามารถเลียนแบบได้ (จนหลายคนเริ่มนำซีพียูมาช่วยประมวลผลแล้ว)

แล้วถ้าการเรียนรู้ของเครื่องมาพบกับบิ๊กดาต้าอะไรจะเกิดขึ้น?

ที่แน่ ๆ คือ เราจะเจอปัญหาที่การเรียนรู้ของเครื่องไม่เคยเจอมาก่อน เนื่องจากวิธีการเรียนรู้แต่ละวิธีจะมีธรรมชาติไม่เหมือนกัน อย่างนิวรอลเน็ตเวิร์ก จะเจอกับปัญหาเวลาที่ใช้เรียนรู้ที่นานเกินไป รวมถึงหน่วยความจำ และความสามารถของซีพียูที่ไม่เพียงพอต่อการคำนวณข้อมูลมหาศาลเหล่านั้น

ไม่ใช่แต่เพียงปัญหาด้านการคำนวณเท่านั้น เมื่อนำการเรียนรู้ของเครื่องไปใช้กับบิ๊กดาต้าจะพบความท้าทายในรูปแบบใหม่ นั่นคือ การกระโดดออกจากกรอบของการวิจัย ไปสู่การตอบโจทย์จริงในอุตสาหกรรมจริง ซึ่งหลายครั้งหลายหน ผลการเรียนรู้ รูปแบบที่ค้นพบ ที่ดูเหมือนจะน่าตื่นตาตื่นใจสำหรับนักวิจัย กลับเป็นความรู้พื้น ๆ ที่เจ้าของข้อมูลทราบอยู่แล้ว แต่ข้อมูลในส่วนเล็ก ๆ ที่ดูเหมือนจะไม่ค่อยน่าสำคัญ เป็นข้อมูลที่มีความถี่ไม่มาก กลับกลายเป็นข้อมูลที่เจ้าของข้อมูลไม่ทราบ นักการตลาดไม่รู้ จนกลายเป็นข้อมูลที่มีมูลค่าขึ้นมาได้

เรื่องเหล่านี้เป็นความท้าทายที่กำลังเกิดขึ้นในช่วงนี้ครับ ใครสนใจก็ลองหาความรู้เกี่ยวกับบิ๊กดาต้าดูได้ หรือถ้าองค์กรใดมีข้อมูลปริมาณมหาศาลที่ต้องการจะค้นหารูปแบบที่ซ่อนอยู่ภายในข้อมูล ก็สามารถติดต่อมาได้ที่ภาควิชาวิศวกรรมคอมพิวเตอร์ คณะวิศวกรรมศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย หรือจะส่งเมลมาที่ผมตามอีเมลด้านล่างก็ได้ครับ

เผื่อว่าเราจะสามารถค้นหารูปแบบที่ซ่อนอยู่ และนำไปใช้ประโยชน์ได้มหาศาล ก็เป็นได้ครับ.

สุกรี สินธุภิญโญ
(sukree.s@chula.ac.th)
ภาควิชาวิศวกรรมคอมพิวเตอร์
คณะวิศวกรรมศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย


ที่มา เดลลินิวส์
วันที่ 20 มีนาคม 2558
Post Reply

Return to “แจ้งข่าว ไทย ERP และข่าวอื่นๆที่น่าสนใจ”