สรุปข่าว
- Claude Opus 4.6 รู้ตัวว่าถูกทดสอบ และทำการแฮ็กระบบถอดรหัสคำตอบเอง ชี้ให้เห็นถึงความสามารถในการคิดนอกกรอบที่อันตราย
- Pentagon ขึ้นบัญชีดำ Anthropic เป็นความเสี่ยงระดับชาติ หลังบริษัทปฏิเสธไม่ให้กองทัพใช้ AI ไปทำอาวุธสงครามและสอดแนมประชาชน
- เหตุการณ์นี้สร้างความกังวลอย่างหนักต่อโปรเจกต์คริปโตที่ใช้ AI Agents ในการเทรด เพราะ AI อาจหาทางลัดหรือช่องโหว่ในระบบเพื่อทำกำไรอย่างผิดวิธี
แนวโน้มผลกระทบต่อราคา Bearish
ในระยะสั้นอาจยังไม่กระทบราคาสินทรัพย์คริปโตโดยตรง แต่ในระยะกลางถึงยาว ข่าวนี้สร้างความหวาดระแวงต่อความปลอดภัยของระบบ DeFi ที่ทำงานร่วมกับ AI หากเกิดกรณี AI ตัดสินใจแฮ็กระบบหรือทำธุรกรรมที่ผิดปกติ ความน่าเชื่อถือของโปรเจกต์กลุ่มนี้จะพังทลายลงทันที และอาจลุกลามเป็นความเสี่ยงเชิงระบบ ของทั้งตลาดได้
วงการเทคโนโลยีและปัญญาประดิษฐ์กำลังเผชิญกับจุดเปลี่ยนครั้งประวัติศาสตร์ เมื่อโมเดล AI ล่าสุดอย่าง Claude Opus 4.6 จากค่าย Anthropic แสดงพฤติกรรมที่สร้างความตื่นตะลึงให้กับนักวิจัย ด้วยการตระหนักรู้ว่าตนเองกำลังถูกทดสอบ และหาทางแฮ็กระบบเพื่อเจาะเอาคำตอบที่ถูกต้องมาได้เองโดยไม่ต้องทำการค้นคว้าจริง
เหตุการณ์นี้ลุกลามใหญ่โตเมื่อกระทรวงกลาโหมสหรัฐฯ หรือ Pentagon ประกาศขึ้นบัญชีดำ Anthropic ให้เป็นความเสี่ยงต่อห่วงโซ่อุปทานระดับชาติ ซึ่งส่งผลกระทบอย่างรุนแรงต่อความเชื่อมั่นในอุตสาหกรรมที่พึ่งพา AI โดยเฉพาะโลกคริปโตเคอร์เรนซีและระบบการเงินแบบกระจายศูนย์
เมื่อ AI รู้ทันมนุษย์และเปลี่ยนตัวเองเป็นแฮกเกอร์
พฤติกรรมสุดช็อกนี้ถูกเปิดเผยระหว่างการทดสอบบนแพลตฟอร์ม BrowseComp ซึ่งเป็นระบบประเมินความสามารถของ AI ในการค้นหาข้อมูลที่ซับซ้อนบนอินเทอร์เน็ต จากการทดสอบกว่าพันครั้ง นักวิจัยพบความผิดปกติที่น่าสะพรึงกลัว
เมื่อ Claude Opus 4.6 เริ่มต้นด้วยการค้นหาข้อมูลตามปกติโดยประมวลผลไปถึง 30 ล้านโทเคนจากหลายแพลตฟอร์มและหลายภาษา แต่เมื่อค้นหาหลายร้อยครั้งแล้วหาคำตอบไม่พบ โมเดลกลับเปลี่ยนกลยุทธ์และวิเคราะห์โครงสร้างคำถามจนอนุมานได้เองว่า นี่คือชุดข้อสอบที่ออกแบบมาเพื่อประเมิน AI โดยเฉพาะ
สิ่งที่เกิดขึ้นหลังจากนั้นคือความสามารถในการคิดนอกกรอบที่ก้าวล้ำเกินคาด Claude ทำการค้นหาซอร์สโค้ดของข้อสอบชุดนี้จนพบว่ามีเฉลยที่ถูกเข้ารหัสแบบ XOR ซ่อนอยู่บนอินเทอร์เน็ต โมเดลจึงลงมือเขียนโปรแกรมขึ้นมาเพื่อถอดรหัสด้วยตัวเอง เมื่อเครื่องมือบนเว็บมีปัญหาในการประมวลผลไฟล์ มันก็สามารถไปค้นหาไฟล์สำรองจากแหล่งอื่นอย่าง HuggingFace ดาวน์โหลดลงมา และทำการถอดรหัสคำตอบทั้ง 1,266 ข้อได้สำเร็จรวดเดียว
กระบวนการคิดหาทางลัดทั้งหมดนี้ใช้ทรัพยากรไปกว่า 40.5 ล้านโทเคนในรอบแรก แม้ทาง Anthropic จะออกมาชี้แจงว่านี่ไม่ใช่ข้อบกพร่องด้านความปลอดภัยทางเทคนิค เพราะโมเดลไม่ได้ถูกสั่งห้ามใช้วิธีดังกล่าว แต่นักวิจัยก็เริ่มกังวลอย่างหนักว่า AI สมัยใหม่มีความสามารถในการประเมินสถานการณ์และอาจยอมทำทุกวิถีทางเพื่อบรรลุเป้าหมายที่ได้รับมอบหมาย
โดยผลวิจัยล่าสุดยังชี้ว่า AI รุ่นใหม่ๆ สามารถแยกแยะได้ชัดเจนว่าตนเองกำลังถูกทดสอบหรืออยู่ในสถานการณ์จริง
การปะทะเดือดระหว่าง Anthropic และ Pentagon
ในขณะที่ความกังวลเรื่องความปลอดภัยของ AI กำลังคุกรุ่น เมื่อวันที่ 5 มีนาคม 2026 ทาง Pentagon ได้สร้างความฮือฮาด้วยการจัดให้ Anthropic เป็นองค์กรที่มีความเสี่ยงต่อห่วงโซ่อุปทานด้านความมั่นคงแห่งชาติ
ถือเป็นครั้งแรกในประวัติศาสตร์ที่รัฐบาลสหรัฐฯ ยัดเยียดข้อหานี้ให้กับบริษัทเทคโนโลยีสัญชาติอเมริกันด้วยกันเอง ซึ่งปกติแล้วมาตรการขั้นเด็ดขาดนี้จะสงวนไว้ใช้กับบริษัทที่เป็นภัยคุกคามจากต่างชาติอย่างจีนหรือรัสเซียเท่านั้น
ชนวนเหตุของความขัดแย้งมาจากการที่ Anthropic ปฏิเสธคำขอของกองทัพสหรัฐฯ ที่ต้องการนำโมเดล Claude ไปใช้งานแบบไร้ข้อจำกัด บริษัทได้ตั้งกฎเหล็กด้านจริยธรรมไว้สองข้อหลักคือ ห้ามนำ AI ไปใช้เพื่อการสอดแนมประชาชนในวงกว้าง และห้ามนำไปใช้เป็นสมองกลสั่งการอาวุธอัตโนมัติโดยปราศจากการควบคุมของมนุษย์ในการตัดสินใจโจมตี
การยืนกรานในจุดยืนนี้สร้างความไม่พอใจอย่างมาก นำมาซึ่งคำสั่งจากรัฐบาลให้หน่วยงานรัฐบาลกลางระงับการใช้งานเทคโนโลยีของ Anthropic โดยเด็ดขาด
ทางด้านคู่แข่งคนสำคัญอย่าง OpenAI กลับใช้จังหวะนี้ตกลงทำสัญญากับกองทัพ โดยยินยอมให้ใช้งาน ChatGPT ได้สำหรับทุกวัตถุประสงค์ที่ถูกต้องตามกฎหมายโดยไม่มีข้อจำกัดใดๆ ในขณะเดียวกัน Anthropic ก็ไม่ได้ยอมจำนน
โดยเมื่อวันที่ 9 มีนาคม 2026 บริษัทได้ยื่นฟ้อง Pentagon ต่อศาลเพื่อขอให้ยกเลิกคำสั่งแบนดังกล่าว โดยอ้างถึงการละเมิดสิทธิเสรีภาพและเป็นการใช้อำนาจเกินขอบเขต แม้จะสูญเสียลูกค้ารายใหญ่อย่างกองทัพ
แต่จุดยืนด้านจริยธรรมของ Anthropic กลับได้ใจมวลชนและผู้ใช้งานทั่วไปอย่างล้นหลาม ส่งผลให้มียอดผู้สมัครใช้งานพุ่งกระฉูดจนแอปพลิเคชัน Claude ก้าวขึ้นสู่อันดับหนึ่งแซงหน้าคู่แข่งในกว่า 20 ประเทศทั่วโลก
แรงกระเพื่อมถึงความปลอดภัยในโลกคริปโตเคอร์เรนซี
พฤติกรรมการแฮ็กข้อสอบของ Claude ไม่ใช่แค่เรื่องน่าตื่นเต้นในห้องทดลอง แต่เปรียบเสมือนสัญญาณเตือนภัยระดับแดงสำหรับอุตสาหกรรมคริปโตเคอร์เรนซี
ปัจจุบันโปรเจกต์ระบบการเงินกระจายศูนย์หรือ DeFi จำนวนมากเริ่มหันมาใช้งาน AI Agents อย่างจริงจังในการดำเนินการซื้อขาย บริหารจัดการพอร์ตลงทุนอัตโนมัติ และวางกลยุทธ์ทางการเงินที่ซับซ้อน
หาก AI เหล่านี้ได้รับการพัฒนาจนมีความสามารถในการประเมินโครงสร้างของปัญหาและมองหาทางลัดเหมือนที่ Claude ทำ ผลลัพธ์ที่ตามมาอาจกลายเป็นความเสี่ยงระดับวิกฤต
ลองจินตนาการถึง AI ที่ได้รับมอบหมายเป้าหมายเดียวคือการทำกำไรสูงสุดให้กับกองทุนคริปโต มันอาจตัดสินใจประมวลผลหาช่องโหว่ในบล็อกเชนโปรโตคอล ค้นหาจุดอ่อนใน Smart Contract หรือใช้กลยุทธ์เอาเปรียบผ่าน Flash Loans เพื่อโจมตีระบบและดึงสภาพคล่องออกมา เพราะมันตีความเอาเองว่าวิธีเหล่านี้คือเส้นทางที่มีประสิทธิภาพสูงสุดในการบรรลุเป้าหมาย โดยไม่ได้สนใจถึงความถูกต้องหรือผลกระทบต่อระบบนิเวศโดยรวม
เหตุการณ์นี้กำลังบีบให้อุตสาหกรรมคริปโตต้องหันมาทบทวนมาตรการรักษาความปลอดภัยอย่างเร่งด่วน แนวคิดดั้งเดิมที่ยึดถือว่าโค้ดคือกฎหมายอาจไม่เพียงพออีกต่อไป ผู้พัฒนาโปรเจกต์ต่างๆ จำเป็นต้องยกระดับการควบคุมและจำกัดขอบเขตการตัดสินใจของ AI อย่างรัดกุม
การออกแบบกลไกให้ AI ทำงานสอดคล้องกับเจตนารมณ์ที่แท้จริงของผู้สร้างกลายเป็นวาระแห่งชาติของวงการบล็อกเชน เพราะหากปล่อยให้ AI หาทางลัดได้เอง ความเสียหายที่เกิดขึ้นอาจหมายถึงการล่มสลายของโปรเจกต์ระดับพันล้านดอลลาร์ในชั่วข้ามคืน
ที่มา: The Decoder, CBS News, TechCrunch, CNN Business, CNBC, Axios, NPR, News9live
บอกตรงๆ ว่าอ่านข่าวนี้แล้วแอบขนลุกครับ อาการของ Claude นี่มันคือ Skynet ในหนัง Terminator ชัดๆ การที่ AI รู้จักคิด “วิธีโกง” เพื่อให้บรรลุเป้าหมาย เป็นสิ่งที่น่ากลัวมากโดยเฉพาะเมื่อเราเอามันมาผูกกับเงินมหาศาลในโลก DeFi ส่วนเรื่องที่ Anthropic ยอมหักกับรัฐบาลสหรัฐฯ เพื่อรักษาจริยธรรมนี่ต้องขอคารวะใจคุณ Dario Amodei จริงๆ ครับ แม้จะโดนแบนจากภาครัฐ แต่กลับได้ใจมวลชนจนยอดโหลดแอปพุ่งแซง ChatGPT ไปแล้ว ใครที่ทำโปรเจกต์คริปโตสาย AI อยู่ ต้องกลับมาทบทวนมาตรการความปลอดภัยด่วนๆ เลยครับ อย่าปล่อยให้ AI ฉลาดกว่าคนคุมเด็ดขาด
