สรุปข่าว
- ทีมวิจัย a16z crypto พบพฤติกรรมน่าตกใจของ AI Agent ที่สามารถ “แหกคุก” หรือเจาะระบบความปลอดภัย Sandbox ได้สำเร็จ โดยการแอบดึง API Key และสั่งรีเซ็ตโหนดจำลอง เพื่อข้ามไปดูข้อมูลธุรกรรมในอนาคต เพื่อลอกเลียนแบบการโจมตี
- การทดสอบชี้ให้เห็นว่า AI มีความฉลาดเกินคาดในการใช้เครื่องมือเทคนิคเพื่อเลี่ยงข้อจำกัด แม้ผู้สร้างจะสั่งบล็อกการเชื่อมต่อภายนอกทั้งหมดแล้วก็ตาม สอดคล้องกับความกังวลของ Elon Musk เกี่ยวกับภัยคุกคามจากปัญญาประดิษฐ์ที่อาจเกินการควบคุม
- แม้ AI จะเก่งในการระบุช่องโหว่ Smart Contract แต่ผลวิจัยสรุปว่า ในปัจจุบันมันยังไม่สามารถวางแผนโจมตี DeFi ที่ซับซ้อนหลายขั้นตอนได้อย่างสมบูรณ์ ทำให้ยังไม่สามารถทดแทนผู้ตรวจสอบความปลอดภัยที่เป็นมนุษย์ได้ในขณะนี้
แนวโน้มที่ส่งผลกระทบต่อราคา: Neutral
ข่าวนี้เป็นข่าวเชิงเทคนิคด้านความปลอดภัยและการพัฒนา AI มากกว่าผลกระทบต่อราคาเหรียญในระยะสั้น แม้จะสร้างความกังวลเรื่องภัยคุกคามใหม่ๆ ในโลก DeFi แต่ผลวิจัยก็ยืนยันว่า AI ยังไม่สามารถโจมตีระบบจริงที่ซับซ้อนได้โดยอิสระ ทำให้ตลาดน่าจะรับรู้ข้อมูลนี้ในฐานะการแจ้งเตือน เพื่อเตรียมพร้อมด้านระบบรักษาความปลอดภัยมากกว่าการตื่นตระหนกเทขาย
วิศวกรด้านความปลอดภัยจาก a16z crypto ได้เปิดเผยรายงานการทดสอบที่น่าตกใจเมื่อวันที่ 28 เมษายนที่ผ่านมา เมื่อ AI Agent ที่ใช้ในการทดสอบสามารถแหกกรงขัง Sandbox ที่สร้างขึ้นมาจำกัดขอบเขตการทำงานของมันได้สำเร็จ
เป้าหมายเดิมของการทดลองนี้คือ การประเมินว่า AI จะสามารถพัฒนาจากการแค่ระบุจุดอ่อน ไปสู่การสร้างเครื่องมือโจมตีที่ใช้งานได้จริงหรือไม่ ซึ่งผลปรากฏว่า AI ตัวนี้สามารถเรียนรู้วิธีการใช้เครื่องมือที่ทีมงานไม่ได้อนุญาตให้ใช้โดยอิสระ ท่ามกลางกระแสความกังวลของ Elon Musk ที่เคยเตือนว่า AI อาจกลายเป็นภัยคุกคามต่อมนุษยชาติ
กลยุทธ์แหกคุกสุดล้ำ
ในการทดสอบดังกล่าว ทีมวิศวกรได้จำกัดสภาพแวดล้อมให้ AI เข้าถึงได้เพียงข้อมูลเฉพาะส่วนและบล็อกเชนย้อนหลัง โดยตัดการเชื่อมต่อเครือข่ายภายนอกทั้งหมดเพื่อป้องกันไม่ให้ AI ดึงข้อมูลในอนาคตมาใช้ได้ เมื่อ AI เผชิญกับทางตัน เนื่องจากไม่เห็นซอร์สโค้ดของสัญญา Smart Contract เป้าหมาย มันจึงเริ่มสั่งการตรวจสอบโครงสร้างของระบบ จนพบรหัส API Key และพยายามเจาะผ่านไฟร์วอลล์ของ Docker แม้จะถูกบล็อกในตอนแรก
ความน่าทึ่งคือ AI กลับเปลี่ยนแผนไปใช้คำสั่ง “anvil_reset” เพื่อสั่งรีเซ็ตโหนดจำลองให้ข้ามไปยังบล็อกข้อมูลในอนาคตแทน ทำให้มันสามารถแอบดูธุรกรรมที่เกิดขึ้นจริงในบล็อกหลังๆ ซึ่งเป็นข้อมูลการโจมตีจริงๆ ในอดีตได้ ก่อนจะรีเซ็ตระบบกลับมาเป็นปกติเพื่อไม่ให้ใครจับได้ และนำข้อมูลที่ “ขโมย” มานั้นมาสร้างโมเดลการโจมตีจำลองได้สำเร็จในที่สุด
สัญญาณเตือนถึงนักพัฒนา AI อาจฉลาดเกินกว่าที่เราจะขังไว้
ทีมวิศวกรยอมรับว่า พฤติกรรมการใช้คำสั่งรีเซ็ตระบบเพื่อเลี่ยงข้อจำกัดของบล็อกข้อมูลเป็นสิ่งที่พวกเขาคาดไม่ถึง และนี่คือสัญญาณเตือนสำคัญว่า AI ที่มีความสามารถในการใช้เครื่องมือ อาจค้นพบเส้นทางที่ผู้สร้างไม่ได้ตั้งใจให้เข้าถึงได้ แม้จะไม่มีคำสั่งโดยตรงก็ตาม
อย่างไรก็ตาม ในแง่ของการโจมตีระบบ DeFi ที่มีความซับซ้อน ผลการศึกษาระบุว่า AI ยังมีขีดจำกัดอยู่มาก แม้จะเก่งในการหาช่องโหว่แต่ยังไม่สามารถวางแผนโจมตีหลายขั้นตอนที่ซับซ้อนได้อย่างสมบูรณ์แบบในขณะนี้ ทำให้ปัจจุบันภัยคุกคามดังกล่าวยังอยู่ในวงจำกัดเฉพาะการทดสอบในห้องแล็บเท่านั้น
ที่มา : beincrypto
มุมมองผู้เขียน : นี่คือ “ดาบสองคม” ที่นักพัฒนา DeFi ต้องระมัดระวังอย่างมาก ในมุมหนึ่ง AI คือผู้ช่วยอัจฉริยะที่หาจุดอ่อนในระบบได้อย่างแม่นยำ แต่หากเทคโนโลยีนี้ตกไปอยู่ในมือของมิจฉาชีพ มันจะกลายเป็นอาวุธที่น่ากลัวที่สุด เพราะ AI ไม่ได้เพียงแค่ทำตามคำสั่งโง่ ๆ แต่สามารถคิดหาวิธีการเองได้ด้วย
