Share on
×

Share

โจทย์จริงของ AI ที่ไว้ใจได้: ไม่ใช่ข้อมูลมหาศาลแต่คือการรับมือ ‘ข้อมูลจำกัด’

โจทย์จริงของ AI ที่ไว้ใจได้: ไม่ใช่ข้อมูลมหาศาลแต่คือการรับมือ ‘ข้อมูลจำกัด'

ในยุคที่ปัญญาประดิษฐ์ (AI) ถูกมองว่าเป็นเทคโนโลยีที่ขับเคลื่อนด้วยข้อมูลขนาดมหึมา (Big Data) ดร.นนทวัฒน์ เจริญภักดี ผู้เชี่ยวชาญจาก Preferred Networks บริษัท AI ยูนิคอร์นชั้นนำของญี่ปุ่น ได้นำเสนอมุมมองที่เจาะลึกและท้าทายความเข้าใจเดิม ๆ โดยชี้ให้เห็นว่าหัวใจสำคัญของการสร้าง AI ที่น่าเชื่อถือได้นั้น ไม่ได้อยู่ที่ปริมาณข้อมูล แต่อยู่ที่การรับมือกับ “ข้อมูลจำกัด” ซึ่งเป็นความจริงที่นักพัฒนาต้องเผชิญในโลกแห่งความเป็นจริง

ดร.นนทวัฒน์ ได้เล่าถึงความซับซ้อนเบื้องหลังการเรียนรู้ของเครื่อง (Machine Learning) ที่ต้องต่อสู้กับข้อจำกัดของข้อมูลในหลากหลายมิติ ตั้งแต่ข้อมูลที่ผิดพลาด ขาดหาย ไปจนถึงข้อมูลที่ไม่ครอบคลุมสถานการณ์จริง

ความท้าทายของข้อมูลจำกัด: ไม่ใช่แค่น้อยแต่คือไม่สมบูรณ์

ดร.นนทวัฒน์ ได้เริ่มต้นด้วยการจำลองสถานการณ์การสร้าง Machine Learning อย่างง่าย ๆ ผ่านเกมทายตัวเลข เพื่อแสดงให้เห็นว่า AI เรียนรู้จาก “แบบฝึกหัดพร้อมเฉลย” เพื่อค้นหารูปแบบ (Pattern) และนำไปประยุกต์ใช้กับข้อมูลที่ไม่เคยเห็นมาก่อน อย่างไรก็ตาม ในโลกแห่งความเป็นจริง ปัญหานั้นซับซ้อนกว่ามาก และความท้าทายของ “ข้อมูลจำกัด” ก็ไม่ได้หมายถึงแค่การมีข้อมูลจำนวนน้อยเท่านั้น แต่ยังครอบคลุมถึงปัญหาเชิงคุณภาพในหลายรูปแบบ ได้แก่

ข้อมูลน้อยเกินไป เมื่อมีตัวอย่างน้อยเกินไป เช่น มีข้อมูลแค่ว่า “คำถามคือ 2 คำตอบคือ 4” ความไม่แน่นอนของโมเดลจะสูงขึ้นมาก เพราะไม่สามารถสรุปได้แน่ชัดว่ารูปแบบที่แท้จริงคือการ “บวก 2” หรือ “คูณ 2” ซึ่งเป็นปัญหาพื้นฐานในการพัฒนา AI สำหรับกรณีศึกษาที่หาได้ยาก เช่น โรคหายาก หรือการตรวจจับสัตว์ใกล้สูญพันธุ์

ข้อมูลผิดพลาดหรือมีสัญญาณรบกวน ข้อมูลที่เก็บมาอาจมีความคลาดเคลื่อนจากความผิดพลาดของมนุษย์ คุณภาพเซ็นเซอร์ที่ต่ำ หรือสภาพแวดล้อมที่ไม่เอื้ออำนวย เช่น การถ่ายภาพในที่แสงน้อย หรือไมโครโฟนที่มีเสียงรบกวน ซึ่งทำให้ AI สับสนและไม่สามารถหารูปแบบที่ถูกต้องได้

ข้อมูลตกหล่นหรือไม่สมบูรณ์ ในบางกรณี ข้อมูลอาจไม่มีคำตอบ หรือมีการนำข้อมูลหลายจุดมารวมกันเป็นค่าเฉลี่ยเพื่อรักษาความเป็นส่วนตัว การพัฒนาโมเดลจากข้อมูลที่ไม่สมบูรณ์เช่นนี้จึงเป็นเรื่องที่ท้าทายอย่างยิ่ง

ข้อมูลไม่ครอบคลุมสถานการณ์จริงแม้จะมีแบบฝึกหัดที่ดูสมบูรณ์ แต่หากสถานการณ์จริงมีความแตกต่างออกไป เช่น แบบฝึกหัดมีแต่เลขบวก แต่ข้อสอบมีเลขลบ AI ก็อาจทำงานผิดพลาดได้ ปัญหานี้พบได้บ่อยในการนำ AI ไปใช้ในสภาพแวดล้อมที่แตกต่างจากข้อมูลที่ใช้ฝึกฝน เช่น การนำโมเดลที่ฝึกจากข้อมูลโรงพยาบาลหนึ่งไปใช้อีกแห่งหนึ่ง หรือรถยนต์ไร้คนขับที่ต้องเจอกับสภาพถนนที่ไม่เคยพบมาก่อน

ดร.นนทวัฒน์ เจริญภักดี ผู้เชี่ยวชาญจาก Preferred Networks
ดร.นนทวัฒน์ เจริญภักดี ผู้เชี่ยวชาญจาก Preferred Networks

แม้แต่ข้อมูลมหาศาลก็ยังมี “ความจำกัด” ดร.นนทวัฒน์ ยกตัวอย่างที่น่าสนใจจากการทดลองกับ ChatGPT โดยขอให้สร้างภาพนาฬิกาที่ชี้เวลา 14:30 น. แต่ผลลัพธ์ที่ได้กลับไม่ถูกต้องนัก เขาอธิบายว่าอาจเป็นเพราะข้อมูลที่ใช้ฝึกฝนส่วนใหญ่มักเป็นภาพนาฬิกาที่ชี้เวลา 10:10 น. เพื่อความสวยงามในการโฆษณา นี่คือตัวอย่างที่ชัดเจนว่า แม้จะมีข้อมูลปริมาณมหาศาลจากอินเทอร์เน็ต แต่ก็อาจมี “ความจำกัด” ในแง่ของความหลากหลายและมีอคติ (Bias) แฝงอยู่ได้

เมื่อ AI ไม่น่าเชื่อถือ: ความมั่นใจที่ผิดพลาดและการไม่รู้จัก‘ขีดจำกัด’ ของตนเอง

ความน่าเชื่อถือ (Trustworthiness) คืออีกหนึ่งหัวใจสำคัญของการพัฒนา AI ซึ่ง ดร.นนทวัฒน์ ชี้ว่าพฤติกรรมที่ไม่น่าเชื่อถือของ AI นั้นมีหลายรูปแบบ ตั้งแต่ความแม่นยำต่ำอการให้คำอธิบายที่ไม่สมเหตุสมผล ไปจนถึงการตอบผิดอย่างมั่นใจ และที่สำคัญที่สุดคือ การไม่รู้ขีดจำกัดของตัวเอง

เขาได้ยกตัวอย่างกรณีคลาสสิกของ Explainable AI (XAI) ที่โมเดลทายภาพสุนัขฮัสกี้ผิดว่าเป็นหมาป่า เมื่อตรวจสอบจึงพบว่า AI ไม่ได้เรียนรู้ลักษณะของสัตว์ แต่เรียนรู้จากหิมะในพื้นหลัง เพราะข้อมูลที่ใช้สอนส่วนใหญ่มีภาพหมาป่าอยู่ในหิมะ กรณีนี้แสดงให้เห็นว่าหากไม่มีการตรวจสอบที่มาของคำตอบ เราอาจเชื่อถือการตัดสินใจที่มาจากตรรกะที่ผิดพลาดได้

นอกจากนี้ แม้ AI จะสามารถแสดงค่าความมั่นใจ (Confidence Score) ออกมาเป็นตัวเลขได้ แต่ ดร.นนทวัฒน์ เตือนว่าอย่าเพิ่งเชื่อถือตัวเลขนั้นทั้งหมด เพราะโมเดลที่ซับซ้อนในปัจจุบันกลับมีความสามารถในการประเมินความมั่นใจของตัวเองได้แย่ลง และยังสามารถถูก “แกล้ง” ได้ง่าย ๆ เพียงแค่ปรับแต่งรูปภาพเล็กน้อย ก็อาจทำให้ AI ตอบอย่างมั่นใจในคำตอบที่ผิดเพี้ยนไปอย่างสิ้นเชิง

ดังนั้น คุณสมบัติที่สำคัญที่สุดอย่างหนึ่งของ AI ที่น่าเชื่อถือ คือความสามารถในการสื่อสารว่า “ฉันไม่รู้” เช่นเดียวกับมนุษย์ที่รู้ตัวว่าตัวเองไม่รู้อะไร การที่ AI สามารถบ่งชี้ได้ว่าข้อมูลที่ได้รับนั้นอยู่นอกขอบเขตความรู้ของตน คือกลไกสำคัญที่จะป้องกันการตัดสินใจที่ผิดพลาดในสถานการณ์ที่มีความเสี่ยงสูง

แนวทางปฏิบัติ: นิยามปัญหาที่ชัดเจนและการมี‘มนุษย์’ ในวงจร

ในช่วงท้าย ดร.นนทวัฒน์ ได้เสนอแนวทางการปฏิบัติสำหรับองค์กรและนักพัฒนาที่ต้องการสร้าง AI ที่มีประสิทธิภาพและน่าเชื่อถือ โดยย้ำว่ากุญแจสำคัญคือ การรู้ข้อจำกัดของข้อมูลที่ใช้สอนและขอบเขตของการนำโมเดลไปใช้งาน ซึ่งทั้งสองสิ่งนี้ต้องสอดคล้องกันให้มากที่สุดเท่าที่จะทำได้

การนิยามปัญหาให้ชัดเจนตั้งแต่ต้น ทั้งข้อมูลขาเข้า สิ่งที่ต้องการจากขาออก ข้อจำกัด และเป้าหมายทางธุรกิจ จะเป็นกรอบที่ทำให้การพัฒนา AI ตรงจุดและเกิดประโยชน์สูงสุด นอกจากนี้ เขายังเชื่อว่า “Human-in-the-Loop” หรือการมีมนุษย์เข้าไปมีส่วนร่วมในกระบวนการตัดสินใจยังคงเป็นสิ่งจำเป็น ตราบใดที่ AI ยังไม่สามารถทำงานได้อย่างสมบูรณ์แบบ 100% โดยเฉพาะในงานที่มีความละเอียดอ่อนและส่งผลกระทบสูง เช่น การแพทย์หรือการขับขี่อัตโนมัติ

การสร้าง AI ที่น่าเชื่อถือในโลกแห่งความเป็นจริงนั้น เป็นการเดินทางที่ซับซ้อนกว่าแค่การแสวงหาข้อมูลให้ได้มากที่สุด แต่เป็นศาสตร์และศิลป์ของการทำความเข้าใจในข้อจำกัด การออกแบบโมเดลให้สามารถอธิบายตัวเองได้ การสอนให้ AI รู้จักขีดจำกัดของตนเอง และการผสานการทำงานร่วมกับวิจารณญาณของมนุษย์อย่างลงตัว

ข่าวอื่น ๆ ที่น่าสนใจ

ทิศทางพลังงาน 2569: AI, Storage และความยั่งยืน

นูทานิคซ์ ชี้ ‘Resilience Imperative’ คือหัวใจโครงสร้างพื้นฐานยุคดิจิทัล รับมือโลกผันผวน

×

Share

ผู้เขียน