bitkub-banner

รายงานเผย สหรัฐฯใช้ Claude AI ในปฏิบัติการทางทหาร

พร้อมเล่น 0:00 / 0:00
สรุปข่าว
  • ตามรายงานจาก Watcher Guru บน X สหรัฐฯ ใช้ Claude AI ของ Anthropic ในปฏิบัติการทางทหาร โดย Anthropic เป็นบริษัท AI แรกที่ถูก deploy ใน classified networks ของ Pentagon ใช้งานตั้งแต่การวิเคราะห์ข่าวกรอง วางแผนปฏิบัติการ cyber operations และ modeling/simulation ตาม Anthropic statement และ Al Jazeera — สื่อสหรัฐฯ รายงานว่า Claude ถูกใช้ในปฏิบัติการจับกุม Maduro ของเวเนซุเอลาเมื่อมกราคม 2026 ด้วย
  • อย่างไรก็ตาม เกิดวิกฤตขึ้นเมื่อ Anthropic ปฏิเสธ คำสั่ง Pentagon ที่ต้องการให้ถอด safeguards 2 ข้อ คือ (1) ห้ามใช้ Claude ในการเฝ้าระวังพลเมืองในประเทศ (mass domestic surveillance) และ (2) ห้ามใช้ในอาวุธอัตโนมัติเต็มรูปแบบ (fully autonomous weapons) ส่งผลให้ Trump สั่งแบน Anthropic จากทุกหน่วยงานรัฐบาลสหรัฐฯ และ รมว.กลาโหม Pete Hegseth ประกาศให้ Anthropic เป็น “supply chain risk” ซึ่งเป็นฉลากที่ปกติใช้กับบริษัทจากชาติศัตรูเท่านั้น ตามรายงานจาก NPR และ Axios
  • ทันทีหลัง Anthropic ถูกแบน OpenAI ก็ประกาศดีลกับ Pentagon เพื่อเข้ามาแทนที่ Claude ใน classified networks ขณะที่ Palantir ซึ่งเป็นพาร์ทเนอร์หลักของ Anthropic ในกองทัพ จะต้องเปลี่ยนไปใช้ AI จากบริษัทอื่น สัญญาของ Pentagon กับบริษัท AI 4 แห่ง (Anthropic, Google, OpenAI, xAI) มีมูลค่าสูงสุด $200 ล้านต่อสัญญา ตามรายงานจาก NPR

แนวโน้มผลกระทบต่อราคา: Neutral

ท่ามกลางสงครามสหรัฐฯ-อิหร่านที่กำลังดำเนินอยู่ ข้อมูลใหม่เปิดเผยว่า Claude AI ของ Anthropic ถูกใช้งานอย่างกว้างขวางในปฏิบัติการทางทหารของสหรัฐฯ ทำให้เกิดคำถามว่า AI มีบทบาทอย่างไรในสงครามครั้งนี้ แต่เรื่องกลับพลิกเมื่อ Anthropic ปฏิเสธที่จะถอด safeguards ด้านจริยธรรม จน Trump สั่งแบนทั้งรัฐบาลและ Pentagon ประกาศให้เป็น “ภัยต่อความมั่นคง” — กลายเป็น วิกฤตครั้งใหญ่ที่สุดระหว่างบริษัท AI กับรัฐบาลสหรัฐฯ

Claude ถูกใช้ทำอะไรในกองทัพ?

ตาม Anthropic statement อย่างเป็นทางการ บริษัทระบุชัดเจนว่า Anthropic เป็น บริษัท AI แรก ที่ deploy โมเดลใน classified networks ของรัฐบาลสหรัฐฯ, National Laboratories และลูกค้าด้านความมั่นคง โดย Claude ถูกใช้ใน intelligence analysis (วิเคราะห์ข่าวกรอง), modeling and simulation, operational planning (วางแผนปฏิบัติการ), cyber operations และอื่นๆ

Al Jazeera รายงานว่า Claude ถูกใช้ใน ปฏิบัติการจับกุม Maduro ของเวเนซุเอลา เมื่อ 3 มกราคม 2026 แม้ Anthropic ปฏิเสธที่จะยืนยันรายละเอียด ตาม Axios เจ้าหน้าที่ Pentagon ยอมรับว่า Claude มีความสามารถสูงมาก และการต้องถอด Claude ออกจะเป็น “ปัญหาใหญ่” สำหรับปฏิบัติการทางทหาร

Anthropic vs Pentagon — ปฏิเสธถอด safeguards จนถูกแบน

จุดขัดแย้งเกิดจาก Pentagon ต้องการให้ AI ทุกตัวที่ใช้ในกองทัพ สามารถใช้ได้ “for all lawful purposes” โดยไม่มีข้อจำกัดจากบริษัทผู้ผลิต แต่ Anthropic ยืนกราน 2 safeguards คือ ห้ามใช้ Claude ใน mass domestic surveillance (เฝ้าระวังพลเมืองสหรัฐฯ) และห้ามใช้ใน fully autonomous weapons (อาวุธที่ยิงโดยไม่มีมนุษย์ควบคุม)

CEO Dario Amodei กล่าวว่า “เราไม่สามารถยินยอมตามคำขอนี้ได้ด้วยจิตสำนึก” โดยให้เหตุผลว่า AI ปัจจุบัน ยังไม่น่าเชื่อถือพอ ที่จะใช้ในอาวุธอัตโนมัติ และอาจเป็นอันตรายต่อทหารและพลเรือน

ตาม NPR Hegseth กล่าวหา Anthropic ว่า “พยายามยึดอำนาจ veto เหนือการตัดสินใจทางทหารของสหรัฐฯ” จากนั้น Trump สั่งให้ทุกหน่วยงานรัฐบาลหยุดใช้เทคโนโลยี Anthropic ทันที และ Pentagon ประกาศให้ Anthropic เป็น “supply chain risk” มีเวลา wind-down 6 เดือน ขณะที่ OpenAI ประกาศดีลกับ Pentagon ทันที เพื่อเข้ามาแทนที่


เรื่องนี้เป็น จุดเปลี่ยนสำคัญของอุตสาหกรรม AI ที่กองทัพต้องการเครื่องมือ AI ที่ “ไม่มีข้อจำกัด” ขณะที่บริษัท AI บางรายยังต้องการรักษา safeguards ด้านจริยธรรม สำหรับวงการคริปโต ข่าวนี้ชี้ให้เห็นว่า เทคโนโลยีไม่ว่าจะเป็น AI, blockchain หรือ crypto กำลังถูกดึงเข้าสู่ภูมิรัฐศาสตร์อย่างหลีกเลี่ยงไม่ได้ สิ่งที่น่าจับตาคือ หากรัฐบาลสามารถแบนบริษัท AI ได้ด้วยเหตุผลความมั่นคง วันหนึ่งอาจใช้เหตุผลเดียวกันกับ crypto protocols ได้เช่นกัน — นี่คือเหตุผลที่ decentralization ยังคงเป็นสิ่งสำคัญครั้งนี้

ที่มา : X, Anthropic, Al Jazeera