<?php wp_title('|', true, 'right'); ?>

OpenAI สารภาพ! เผยสาเหตุที่แท้จริงที่ทำให้ ChatGPT ‘แต่งเรื่อง’ ชี้เป็นเพราะ ‘เราสอนให้มันเดาเก่ง’

ติดตามสยามบล็อกเชนบนSiam Blockchain

เคยไหม? ถามคำถามง่ายๆ กับ ChatGPT แต่กลับได้คำตอบที่ดูดี มีหลักการ แต่พอไปเช็คดูอีกทีกลับ “ผิดเต็มๆ” ปรากฏการณ์ที่ AI ตอบคำถามผิดแต่กลับนำเสนออย่างมั่นใจราวกับเป็นเรื่องจริงนี้ ถูกเรียกว่า “Hallucination” และล่าสุด OpenAI ได้ออกมา “สารภาพ” ถึงต้นตอของปัญหาที่น่าประหลาดใจนี้แล้ว

สอนให้เดา กับดักของ ‘ข้อสอบช้อยส์’ ที่ทำให้ AI เลือกที่จะ ‘มั่ว’

OpenAI ชี้ว่าต้นตอของปัญหาไม่ได้อยู่ที่ตัว AI โดยตรง แต่อยู่ที่ “ระบบการให้คะแนน” ที่เราใช้สอนมัน ซึ่งเปรียบได้กับการทำข้อสอบแบบปรนัย (Multiple-choice) หากนักเรียนไม่รู้คำตอบ การเดาสุ่มก็ยังมีโอกาสได้คะแนน แต่การเว้นว่างไว้จะเท่ากับศูนย์คะแนนแน่นอน

ในทำนองเดียวกัน เมื่อโมเดล AI ถูกให้คะแนนโดยวัดจาก “ความแม่นยำ” เพียงอย่างเดียว มันก็จะเรียนรู้ที่จะ “เดา” คำตอบเมื่อไม่แน่ใจ แทนที่จะยอมรับอย่างตรงไปตรงมาว่า “ฉันไม่รู้”

ข้อมูลเปรียบเทียบแสดงให้เห็นภาพนี้อย่างชัดเจน:

  • โมเดลเก่า (o4-mini) มีอัตราการตอบผิด (Hallucination) สูงถึง 75% เพราะมันเลือกที่จะเดาเพื่อให้ได้คะแนนความแม่นยำสูงขึ้น
  • โมเดลใหม่ (gpt-5-thinking-mini) มีอัตราการตอบผิดเพียง 26% เพราะมันเรียนรู้ที่จะ “ไม่ตอบ” เมื่อไม่แน่ใจถึง 52%

แม้โมเดลเก่าจะดูมีความแม่นยำสูงกว่าบนกระดานคะแนน แต่ในความเป็นจริงแล้วมันสร้างข้อมูลที่ไม่ถูกต้องออกมามากกว่าเกือบ 3 เท่า

ที่มาของเรื่องแต่ง เมื่อ AI ต้อง ‘เดาคำถัดไป’

แล้ว AI ไปเอาข้อมูลผิดๆ เหล่านี้มาจากไหน? คำตอบอยู่ในกระบวนการเรียนรู้พื้นฐานของมัน นั่นคือการ “ทำนายคำถัดไป” จากข้อมูลมหาศาลบนอินเทอร์เน็ต

ลองนึกภาพ AI เป็นเด็กที่กำลังหัดพูดโดยการอ่านหนังสือทุกเล่มในโลก เด็กคนนั้นจะเชี่ยวชาญไวยากรณ์และการสะกดคำได้อย่างรวดเร็วเพราะมันมีรูปแบบที่ชัดเจน แต่ถ้าเราถามเด็กคนนั้นว่า “วันเกิดของหมาชื่อโบ้ในหนังสือเล่มที่ล้านคือวันอะไร?” เด็กคนนั้นก็จะเริ่ม “มั่ว” ข้อมูลขึ้นมา เพราะมันเป็นข้อเท็จจริงที่ไม่มีรูปแบบตายตัวและไม่สามารถคาดเดาจากบริบทได้ นี่คือสิ่งที่เกิดขึ้นกับ AI และทำให้เกิด Hallucination

ทางแก้ที่ตรงไปตรงมา เปลี่ยน ‘กติกาการให้คะแนน’

OpenAI เสนอทางแก้ที่ตรงไปตรงมาแต่ทรงพลัง ถึงเวลาแล้วที่จะต้องเปลี่ยน “กติกาการให้คะแนน” ใหม่ทั้งหมด โดยจะต้อง

  • ลงโทษการเดา ให้คะแนนติดลบหนักๆ กับคำตอบที่ผิดแต่ตอบอย่างมั่นใจ
  • ให้รางวัลความถ่อมตน ให้คะแนนพิเศษกับการยอมรับว่า “ไม่รู้” หรือการแสดงออกถึงความไม่แน่นอนอย่างเหมาะสม

“หากกระดานคะแนนหลักๆ ยังคงให้รางวัลกับการเดาที่โชคดี โมเดลก็จะเรียนรู้ที่จะเดาต่อไป” รายงานระบุ การแก้ไขกติกาพื้นฐานนี้จะช่วยกระตุ้นให้เกิดการยอมรับเทคนิคการลด Hallucination ในวงกว้างมากขึ้น

ที่มา: OpenAI