bitkub-banner

CEO ค่ายเกมดังใช้ ChatGPT หวังเซฟค่าทนาย แต่กลับแพ้คดีสูญเงินกว่า 250 ล้านดอลลาร์

พร้อมเล่น 0:00 / 0:00
สรุปข่าว
  • ซีอีโอค่ายเกมดัง ผู้จัดจำหน่าย Subnautica 2 พลาดท่าอย่างแรง นำ ChatGPT มาใช้หาข้ออ้างทางกฎหมายเพื่อเลี่ยงจ่ายโบนัส 250 ล้านดอลลาร์ สุดท้ายข้อมูลมั่วจนแพ้คดีเละเทะและเสียชื่อเสียง
  • AI ระดับท็อปยังมีปัญหา “Hallucination” หรือข้อมูลผิดพลาดสูงมาก ทำให้เกิดหายนะในหลายวงการ ทั้งกฎหมาย การแพทย์ และการเงิน
  • มี 5 สายงานปราบเซียนที่ห้ามใช้ AI ทำแทนผู้เชี่ยวชาญเด็ดขาด โดยเฉพาะการ Audit Smart Contract หรือการอ้างอิงบรรทัดฐานทางกฎหมายในศาล

ซีอีโอค่ายเกมดังทำผิดพลาดครั้งใหญ่ด้วยการใช้ ChatGPT แทนทนายในคดีความเรื่องเงินโบนัสกว่า 250 ล้านดอลลาร์ จนแพ้คดีและเสียชื่อเสียงย่อยยับ เพราะ AI ไม่ได้ “รู้จริง” แต่แค่เรียงคำให้ฟังดูน่าเชื่อถือ และเมื่อไม่รู้คำตอบก็จะแต่งข้อมูลขึ้นมาเองอย่างมั่นใจ ปัญหานี้เกิดซ้ำในหลายวงการ ทั้งกฎหมาย การแพทย์ ภาษี คริปโต และวิชาการ กฎเหล็กสำคัญ ที่ผู้ใช้ควรจำคือ ทุกข้อมูลสำคัญต้องผ่านการตรวจสอบจากผู้เชี่ยวชาญตัวจริงเสมอ

ลองนึกภาพว่า คุณเป็นผู้บริหารระดับสูงที่กำลังมีข้อพิพาทเรื่องเงินโบนัสก้อนโตระดับ 250 ล้านดอลลาร์สหรัฐฯ หรือประมาณ 8,000 พันล้านบาท ตามปกติแล้ว คนทั่วไปคงยอมทุ่มเงินจ้างสำนักงานกฎหมายระดับท็อปมาดูแลคดี แต่ทว่าเรื่องจริงที่น่าตกใจคือ ซีอีโอของ Krafton ผู้จัดจำหน่ายเกมยอดฮิตอย่าง Subnautica 2 กลับเลือกเส้นทางที่ต่างออกไป

ซีอีโอรายนี้ได้หันไปพึ่ง ChatGPT เพื่อหาข้ออ้างต่างๆ ทางกฎหมายมาต่อสู้ในชั้นศาล หวังจะหลีกเลี่ยงการจ่ายเงินก้อนโตให้กับหัวหน้าสตูดิโอของตัวเอง ส่วนผลลัพธ์ที่เขาได้กลับมาคือ “หายนะครั้งใหญ่” 

สาเหตุที่เป็นแบบนั้น เป็นเพราะข้อมูลที่ AI พ่นออกมาด้วยความมั่นใจนั้น ล้วนเป็นข้อมูลที่นำไปใช้อ้างอิงในศาลไม่ได้เลย การประหยัดค่าทนายในวันนั้น ทำเอาเขาแพ้คดียับเยิน แถมยังเสียชื่อเสียงในวงการแบบย่อยยับ

หลายคนยังเข้าใจผิดอยู่ว่า Genrative AI แบบ ChatGPT คือ “ผู้รู้ทุกสิ่ง” แต่ในความเป็นจริง เทคโนโลยีที่อยู่เบื้องหลังเป็นเพียงโมเดลภาษา (LLM) ที่ถูกฝึกมาให้คาดเดาและเรียงคำศัพท์ให้ดูเป็นธรรมชาติและน่าเชื่อถือที่สุด 

เมื่อมันเจอคำถามเฉพาะทางที่มันไม่รู้คำตอบ มันจะไม่พูดตรงๆ ว่า “ผมไม่รู้” แต่จะเกิดอาการที่วงการเทคฯ เรียกว่า “AI Hallucination” หรืออาการที่ AI ให้ข้อมูลแบบผิดๆ มันจะนั่งเทียนแต่งเรื่องขึ้นมาหน้าตาเฉย เพื่อส่งคำตอบที่คุณอยากได้ยินที่สุด แต่ข้อมูลเหล่านั้นกลับไม่เป็นความจริง

จากอุทาหรณ์ราคาแพงเฉียดหมื่นล้านบาทนี้ เราสามารถถอดบทเรียนออกมาเป็นไกด์ไลน์สำคัญสำหรับการทำงานในยุคดิจิทัลได้เลยว่า มีพื้นที่ต้องห้ามอยู่ 5 เรื่องหลักๆ ที่คุณห้ามมอบหมายให้ AI ทำหน้าที่แทนผู้เชี่ยวชาญตัวจริงโดยเด็ดขาด

5 วงการหายนะ : หากคุณฝากชีวิตไว้กับ AI มากเกินไป

วงการแรกที่อันตรายที่สุดคือ การให้คำแนะนำทางกฎหมายและการร่างสัญญา งานวิจัยพบว่า โมเดลระดับท็อปมีโอกาสแต่งข้อมูลทางกฎหมายผิดพลาดสูงลิ่ว

ตัวอย่างที่สะเทือนวงการสุดๆ คือคดีดังอย่าง Mata v. Avianca ที่ทนายความใช้ ChatGPT ร่างคำฟ้อง และผลปรากฏว่า AI อ้างอิงบรรทัดฐานคดีในอดีตมาให้อย่างสวยหรู แถมยืนยันหนักแน่นว่าค้นหาได้ในฐานข้อมูลจริง แต่พอศาลตรวจสอบ กลับพบว่ามันเป็นคดีมโนที่ AI แต่งขึ้นมาเองล้วนๆ สุดท้ายทนายความโดนศาลสั่งปรับหนัก 

วงการที่สองใกล้ตัวเราทุกคนมากคือ การวินิจฉัยโรคทางการแพทย์ คนไทยหลายคนเวลาป่วยมักจะชอบค้นหาข้อมูลในเน็ต แล้วตอนนี้ก็เริ่มลามไปพิมพ์ถามอาการกับ AI ปัญหาคือ AI ถูกออกแบบมาให้ประมวลผลทางสถิติของภาษา ไม่ใช่เพื่อการตรวจรักษาโรคเชิงการแพทย์ 

เคยมีเคสที่ผู้ป่วยเอาอาการไปถาม แล้ว AI ฟันธงว่า เป็นแค่โรคทั่วไปไม่อันตราย ทำให้ชะล่าใจไม่ได้ไปโรงพยาบาล สุดท้ายมารู้ทีหลังว่า เป็นโรคร้ายแรงที่ต้องรักษาฉุกเฉิน การเอาชีวิตไปแขวนไว้กับคำตอบของ AI แล้วเดินไปซื้อยากินเองตามร้านขายยา จึงเป็นความเสี่ยงที่ได้ไม่คุ้มเสีย

วงการที่สามคือ การคำนวณภาษีและการเงินที่ซับซ้อน ในปี 2023 ที่ศาลภาษีของสหราชอาณาจักร มีคนหัวหมอใช้ ChatGPT หาช่องโหว่เพื่ออุทธรณ์ตดีภาษี โดยส่งคำพิพากษาคดีภาษีเก่าๆ 9 คดีที่ AI สรุปมาให้ศาลพิจารณา ผลสุดท้ายคือ ศาลเช็กแล้วพบว่าทั้ง 9 คดีไม่มีอยู่จริง ทำให้ผู้อุทธรณ์หมดความน่าเชื่อถือและแพ้คดีทันที 

วงการที่สี่ถือเป็นจุดสลบของนักลงทุนสายเทคฯ นั่นคือ การใช้ตรวจสอบ Smart Contract ก่อนลงทุน ในโลกของ Web3 นักลงทุนมักจะก๊อปโค้ด Solidity ไปแปะใน ChatGPT แล้วถามว่า “โปรเจกต์นี้มีช่องโหว่ไหม” เมื่อ AI ตอบว่าปลอดภัยก็แห่กันไปลงทุน 

แต่ความจริงคือ การทำงานของโค้ดคริปโตนั้นมีตรรกะที่ซับซ้อนเกินกว่า AI ทั่วไปจะเข้าใจได้ทั้งหมด พอโปรเจกต์เปิดใช้งานจริงก็โดนแฮ็กเกอร์เจาะระบบ กวาดเงินลงทุนหายวับไปเป็นล้านดอลลาร์ในพริบตา 

การลงทุนจ้างบริษัท Audit ทางไซเบอร์ที่เป็นคนจริงๆ ตรวจสอบโค้ด ยังไงก็ชัวร์กว่าการฝากเงินไว้กับหน้าต่างแชทของ AI แน่นอน

และวงการสุดท้ายคือ การอ้างอิงข้อมูลทางวิชาการ ปัญหาคลาสสิกของนักศึกษาหรือคนทำงานที่ให้ AI ช่วยหาเอกสารอ้างอิง มันมักจะสร้างชื่อผู้แต่ง ปีที่พิมพ์ และชื่องานวิจัยที่ดูวิชาการจ๋าและสมจริงสุดๆ แต่อ่านดูแล้วเอกสารเหล่านั้นไม่เคยถูกตีพิมพ์บนโลกใบนี้ 

การนำข้อมูลมโนเหล่านี้ไปใช้ส่งอาจารย์หรือใช้ในเอกสารหน่วยงานราชการ มีแต่จะทำให้คุณโดนปรับตกและเสียเครดิตความน่าเชื่อถือในฐานะคนทำงานไปอย่างน่าเศร้า

แล้วเราจะใช้งาน AI อย่างไรให้ปลอดภัยและเกิดประโยชน์สูงสุด ? 

ปัญหาใหญ่ที่สุดของเคสทั้งหมด เกิดขึ้นจากอาการ “AI Hallucination” หรือการที่ AI สร้างข้อมูลเท็จขึ้นมาด้วยความมั่นใจเต็มเปี่ยม มันดึงสถิติของคำมาเรียงต่อกันให้ดูสมเหตุสมผล เพื่อตอบคำถามให้โดนใจคุณ แต่ประเด็นคือ มันไม่ใช่ความจริง

แล้วเราจะใช้งาน AI อย่างไรให้ปลอดภัยและเกิดประโยชน์สูงสุด วิธีการง่ายๆ แบบ How-to คือการปรับ Mindset ของเราใหม่ครับ ให้มองว่า Generative AI คือ “เด็กฝึกงานจบใหม่ที่ขยันมากแต่ยังอ่อนประสบการณ์” เด็กคนนี้สามารถช่วยคุณจัดหน้ากระดาษ ร่างอีเมล สรุปการประชุม หรือระดมไอเดียได้อย่างยอดเยี่ยมและรวดเร็ว แต่เขาไม่ใช่ผู้เชี่ยวชาญเฉพาะทาง 

กฎเหล็กของการใช้งาน Generative AI คือ คุณต้องทำหน้าที่ตรวจสอบความถูกต้องเสมอ และให้มองว่า AI คือ เด็กฝึกงานจบใหม่ที่ขยันมากแต่ยังอ่อนประสบการณ์ เด็กคนนี้สามารถช่วยคุณจัดหน้ากระดาษ ร่างอีเมล สรุปการประชุม หรือระดมไอเดียได้อย่างรวดเร็ว แต่เขาไม่ใช่ผู้เชี่ยวชาญเฉพาะทาง 

ดังนั้น ทุกครั้งที่เด็กฝึกงานคนนี้ส่งงานที่มีตัวเลข วันที่ ข้อกฎหมาย หรือข้อมูลอ้างอิงสำคัญ คุณในฐานะ “หัวหน้างาน” มีหน้าที่ต้องนำข้อมูลเหล่านั้นไปตรวจสอบความถูกต้องกับแหล่งอ้างอิงที่น่าเชื่อถือต่ออีกทีเสมอ


มุมมองผู้เขียน: AI เป็นเพียงเครื่องมือทรงพลังที่ช่วยทุ่นแรง ไม่ใช่ผู้มีอำนาจตัดสินใจ การทำงานในยุคนี้ ผู้ชนะไม่ใช่คนที่โยนทุกอย่างให้ AI ทำจนหมด แต่คือคนที่เข้าใจขอบเขตความสามารถของเทคโนโลยี รู้จักผสานพลังการประมวลผลของ AI เข้ากับ “วิจารณญาณและประสบการณ์” ของผู้เชี่ยวชาญได้อย่างลงตัว