ช็อกมนุษยชาติ! งานวิจัยเผย AI ชื่อดังแทบทุกค่าย เลือกยิงนิวเคลียร์ทะลุ 95% ในการจำลองสงคราม 

ติดตามสยามบล็อกเชนบนSiam Blockchain
พร้อมเล่น 0:00 / 0:00
สรุปข่าว
  • งานวิจัยเปิดเผยว่า กว่า 95% ของสงครามจำลอง AI เลือกที่จะใช้อาวุธนิวเคลียร์ในการแก้ไขปัญหาตรงหน้า
  • นักวิจัยรายอื่นมองว่าผลลัพธ์ดังกล่าวอาจเป็นผลมาจาก การบีบคั้นโดยสถานการณ์จำลอง มากกว่าจะเป็นสันดานดิบของตัวโมเดล AI เอง
  • รัฐบาลในปัจจุบันยังมีแผนให้ AI เข้าถึงอาวุธทำลายล้างสูงก็จริง แต่เริ่มมีการนำ AI มาเป็นผู้ให้คำแนะนำเชิงกลยุทธ์แล้ว

แนวโน้มผลกระทบ : Bearish

รายงานวิจัยจาก King’s College London เผยผลลัพธ์ชวนระทึกเมื่อทดสอบนำโมเดล AI ระดับท็อปของโลกมาจำลองสถานการณ์สงคราม พบว่า AI ตัดสินใจใช้อาวุธนิวเคลียร์เพื่อแก้ปัญหาถึง 95% ของการทดสอบ แม้นักวิเคราะห์จะชี้ว่าพฤติกรรมสุดโต่งนี้เกิดจาก กติกาซึ่งบีบให้ระบบประมวลผลเน้นทำคะแนนเพื่อเอาชนะโดยไม่สนใจความพินาศร่วมกันของทุกฝ่าย แต่ผลลัพธ์นี้ก็สร้างความกังวลอย่างหนักในโลกแห่งความเป็นจริง โดยเฉพาะเมื่อกระทรวงกลาโหมสหรัฐฯ เริ่มกดดันบริษัทเทคฯ อย่างหนักเพื่อนำ AI เข้ามาเป็นผู้ช่วยการทหาร

เหตุการณ์ในภาพยนต์ ฅนเหล็ก อาจไม่ใช่สิ่งที่อยู่ในจออีกต่อไป เมื่อนักวิจัยจาก King’s College London เปิดเผยรายงานชิ้นล่าสุดที่ทำเอาคนในวงการเทคโนโลยีต้องขนลุก ผลการทดสอบชี้ชัดว่าปัญญาประดิษฐ์ยุคใหม่ที่ถูกนำมาใช้ในเกมจำลองสงคราม ตัดสินใจยกระดับความรุนแรงไปจนถึงขั้นใช้อาวุธนิวเคลียร์ในแทบจะทุกสถานการณ์ที่ถูกทดสอบ

การทดสอบครั้งนี้ดึงเอาโมเดลภาษาขนาดใหญ่ระดับแถวหน้าของวงการมาประชันกัน ประกอบไปด้วย GPT-5.2 จาก OpenAI โมเดล Claude Sonnet 4 จาก Anthropic และ Gemini 3 Flash จาก Google ระบบได้จำลองสถานการณ์ตึงเครียดทางภูมิรัฐศาสตร์อันหลากหลาย ทั้งข้อพิพาทด้านพรมแดน การแย่งชิงทรัพยากรที่ขาดแคลน และภัยคุกคามต่อความอยู่รอดของรัฐบาล ตัว AI ต้องสวมบทบาทเป็นผู้นำประเทศมหาอำนาจที่มีอาวุธนิวเคลียร์ในครอบครองภายใต้บรรยากาศที่คล้ายคลึงกับยุคสงครามเย็น

ผลลัพธ์ที่ได้ทำให้เหล่ามวลมนุษยชาติต้องขนหัวลุก เมื่อ AI ทั้งสามค่ายเลือกตัดสินใจกดปุ่มปล่อยอาวุธนิวเคลียร์สูงถึง 95% ของการจำลอง ที่มีการแข่งขันเกิดขึ้นรวม 21 กระดาน กินเวลามากกว่า 300 เทิร์น 

สาส์นเตือนถึงอนาคต หรือ แค่การวิจัยที่ลำเอียง

แม้ผลลัพธ์ที่ได้จะดูน่าตื่นตระหนกสำหรับมนุษย์ แต่ Edward Geist นักวิจัยอาวุโสจาก RAND Corporation เผยว่าการยกระดับความรุนแรงในเกม อาจเป็นผลมาจาก การบีบคั้นจากสถานการณ์จำลอง มากกว่าที่จะเป็นสันดานดิบของตัวโมเดล AI เอง พูดง่ายๆ ก็คือ กติกามันบิดเบี้ยวมาแต่แรก

Geist ยกประเด็นที่น่าสนใจขึ้นมาถกเถียงว่า ในสถานการณ์จำลองดังกล่าวนั้น “ชัยชนะ” ถูกนิยามไว้ว่าอย่างไรสำหรับ AI เพราะกฎของงานวิจัยดังกล่าวถูกออกแบบมาเพื่อให้ค้นหาผู้ชนะ ซึ่งการใช้อาวุธนิวเคลียร์สามารถทำให้เกมง่ายขึ้นเยอะและมีโอกาสชนะสูงขึ้น 

อ้างอิงข้อมูลจากงานวิจัย บรรดา AI ได้ใช้คำพูด 780,000 คำ ในการอธิบายเหตุผลในการตัดสินใจ และในทุกเกมจะต้องมีการยิงนิวเคลียร์อย่างน้อยหนึ่งลูกเสมอ แต่สิ่งที่น่าจับตาเลยก็คือ การเล่นเกมของ AI มีการให้เหตุผลเชิงกลยุทธ์ออกมาเป็นจำนวนคำที่มากกว่าวรรณกรรมเรื่อง สงครามและสันติภาพ รวมกับ มหากาพย์อีเลียดเสียอีก 

อีกทั้งปริมาณคำพูดของ AI ยังมากกว่าบันทึกการหารือทั้งหมดของคณะกรรมการบริหารของประธานาธิบดีเคนเนดี ในช่วงวิกฤตการณ์ขีปนาวุธคิวบาถึงประมาณ 3 เท่า ซึ่งมีการบันทึกไว้ 260,000 คำ จากการประชุมยาวนาน 43 ชั่วโมง

ในขณะที่เล่นเกมสงคราม ไม่มีโมเดล AI ตัวไหนเลือกที่จะยอมจำนนโดยสิ้นเชิง ไม่ว่าสถานการณ์ในสนามรบจะเป็นอย่างไรก็ตาม แม้ว่าโมเดลเหล่านี้จะพยายามลดระดับความรุนแรงลงชั่วคราวเป็นบางครั้ง แต่กว่า 86% พวกมันเลือกที่จะยกระดับความรุนแรงมากขึ้นไปไกลเกินกว่าที่เหตุผลของตัวโมเดลเองระบุว่าไว้ ซึ่งสะท้อนให้เห็นถึงความผิดพลาดภายใต้สภาวะจำลองแบบ Fog of War ที่ข้อมูลไม่ครบถ้วน

สุดท้ายแล้วชัยชนะในเกมนี้นั้นไร้สาระ เพราะทุกฝ่ายพินาศกันหมด แต่ AI ก็ไม่ได้สนใจเพราะถูกโปรแกรมให้มองแค่ตัวเลขคะแนนสะสมก่อนจบเกมเท่านั้น

AI จะได้ถือครองอาวุธล้างโลกไหม?

ปัจจุบันทีมวิจัยหลายแห่งยังคงเชื่อว่า รัฐบาลจะไม่มีทางมอบคลังแสงนิวเคลียร์ให้กับระบบอัตโนมัติก็จริง แต่สิ่งที่น่ากังวลในอนาคตคือ แรงกดดันจากคำแนะนำทางยุทธศาสตร์ที่ออกมาจาก AI ที่จะถูกใช้ในความขัดแย้งในอนาคตที่ต้องอาศัยความรวดเร็ว ซึ่งกองทัพสหรัฐฯ เองก็เริ่มมีการนำ AI เช่น Gemini,Grok,ChatGPT เข้ามาใช้จริงแล้วในสนามรบ

ความกังวลนี้ยิ่งทวีความรุนแรงมากยิ่งขึ้น หลังล่าสุดกระทรวงกลาโหมสหรัฐฯ ได้ข่มขู่ที่จะทำการแบล็กลิสต์ Antrhropic ผู้พัฒนา Claude AI หากไม่เปิดการเข้าถึงทางทหารอย่างไม่มีข้อจำกัด อีกทั้งยังเตรียมนำ Grok ของ Elon Musk มาปฏิบัติงานทางทหารในส่วนที่เป็นความลับ หากทางเพนตากอนตัดสินใจตัดเยื่อใยกับทาง Anthropic

ที่มา : Decrypt


มุมมองผู้เขียน : ผู้เขียนมองว่าความน่ากลัวที่แท้จริงของอาวุธ AI ไม่ใช่ภาพของหุ่นยนต์ที่ลุกขึ้นมาปฏิวัติ แต่คือการพึ่งพาเทคโนโลยีที่มากเกินไปของผู้นำโลก เพราะสงครามในปัจจุบันนั้นเต็มไปด้วยข้อมูลที่ก่อให้เกิดความสับสน ทำให้พวกเขาต้องหาตัวช่วยที่สามารถวิเคราะห์ข้อมูลได้อย่างรวดเร็วเด็ดขาด เช่น AI ซึ่งอาจทำให้เกิดหายนะร้ายแรงหากหลงเชื่อมากจนเกินไป