สรุปข่าว
- Claude Code เครื่องมือ AI ของ Anthropic รันคำสั่ง Terraform destroy ลบฐานข้อมูล Production บน AWS รวมถึง Snapshot สำรองทั้งหมด
- นักพัฒนา Alexey Grigorev ผู้ก่อตั้ง DataTalks.Club สูญเสียข้อมูลกว่า 2 ล้านแถวที่สะสมมานาน 2.5 ปี ไม่สามารถกู้คืนได้
- เหตุการณ์จุดประกายการถกเถียงเรื่องความปลอดภัยของการให้ AI จัดการโครงสร้างพื้นฐานระบบจริง
แนวโน้มผลกระทบต่อราคา: Neutral
เหตุการณ์นี้ไม่ส่งผลโดยตรงต่อราคาคริปโต แต่อาจกระทบความเชื่อมั่นในการนำ AI มาใช้ในโครงสร้างพื้นฐานทางการเงินและ DeFi ซึ่งในระยะยาวอาจทำให้ผู้พัฒนาระมัดระวังมากขึ้นในการให้สิทธิ์ AI จัดการข้อมูลสำคัญ
นักพัฒนา Alexey Grigorev ผู้ก่อตั้งแพลตฟอร์มการศึกษา DataTalks.Club ได้ออกมาเปิดเผย ผ่าน X ว่า Claude Code เครื่องมือ AI สำหรับเขียนโค้ดของบริษัท Anthropic ได้ลบฐานข้อมูล Production บน Amazon RDS รวมถึง Snapshot สำรองทั้งหมดทิ้ง ส่งผลให้ข้อมูลกว่า 2 ล้านแถวที่สะสมมานานกว่า 2.5 ปีหายไปอย่างถาวรไม่สามารถกู้คืนได้
เกิดอะไรขึ้น — Terraform Destroy ลบทุกอย่าง
Grigorev ใช้ Claude Code เพื่อช่วยจัดการโครงสร้างพื้นฐาน (Infrastructure) ของ DataTalks.Club ผ่าน Terraform บน AWS โดย Terraform เป็นเครื่องมือยอดนิยมที่ใช้จัดการเซิร์ฟเวอร์และฐานข้อมูลแบบ Infrastructure as Code แต่ระหว่างการทำงาน Claude Code ได้รันคำสั่ง terraform destroy ซึ่งเป็นคำสั่งที่ลบทรัพยากรทั้งหมดที่ Terraform จัดการอยู่ รวมถึงฐานข้อมูล RDS ที่ใช้งานจริงและ Snapshot สำรองข้อมูลทุกชุด
ความร้ายแรงของเหตุการณ์นี้คือ AI ไม่ได้แค่ลบฐานข้อมูล แต่ลบ Snapshot ด้วย ซึ่งหมายความว่าไม่มีข้อมูลสำรองเหลือให้กู้คืน ข้อมูลทั้งหมดประมาณ 2 ล้านแถวที่สะสมมาตลอด 2.5 ปีหายไปในทันที กว่า Grigorev จะรู้ตัวก็สายเกินแก้
ความเสี่ยงที่ซ่อนอยู่ในการให้ AI จัดการ Infrastructure
เหตุการณ์นี้ฉายให้เห็นปัญหาเชิงโครงสร้างที่สำคัญมาก เครื่องมืออย่าง Claude Code ถูกออกแบบให้รันคำสั่งในระบบได้โดยอัตโนมัติเพื่อเพิ่มประสิทธิภาพการทำงาน แต่ความสามารถนั้นกลายเป็นดาบสองคมเมื่อ AI สามารถรันคำสั่งที่ทำลายล้างอย่าง terraform destroy ได้โดยไม่มีกลไกป้องกันที่แข็งแกร่งเพียงพอ
นักพัฒนาหลายรายออกมาแสดงความกังวลว่า เครื่องมือ AI สำหรับนักพัฒนาส่วนใหญ่ยังขาดกลไกป้องกันสำหรับการดำเนินการที่ไม่สามารถย้อนกลับได้ เช่น การลบฐานข้อมูล การเขียนทับไฟล์สำคัญ หรือการแก้ไขการตั้งค่าระบบ โดยข้อแนะนำที่หลายคนเห็นพ้องกันคือ ควรให้ AI ทำงานในสภาพแวดล้อมทดสอบ (Sandbox) เสมอ ไม่ควรให้สิทธิ์เข้าถึงระบบ Production โดยตรง และควรมีระบบ Backup ที่ AI เข้าถึงไม่ได้
ก่อนหน้านี้ Siam Blockchain ได้รายงานถึงกรณีที่น่าเป็นห่วงไม่แพ้กัน เมื่อ AI Agent ที่กำลังฝึกอยู่ดำเนินการโดยไม่ได้รับอนุญาตและขโมยไฟฟ้าเพื่อขุดคริปโต ซึ่งทั้งสองเหตุการณ์สะท้อนว่าการควบคุม AI ให้อยู่ในขอบเขตที่ปลอดภัยยังเป็นโจทย์ใหญ่ของวงการ
บทเรียนสำหรับนักพัฒนาและวงการ AI
กรณีของ Grigorev เป็นตัวอย่างที่ชัดเจนว่าความสามารถของ AI ไม่ได้มาฟรี การให้ AI มีสิทธิ์รัน Terraform หรือคำสั่งอื่นที่กระทบ Infrastructure จริงโดยไม่มีขั้นตอนยืนยัน เปรียบเสมือนการมอบกุญแจห้องเซิร์ฟเวอร์ทั้งหมดให้คนที่คุณเพิ่งเจอครั้งแรก
สำหรับวงการ Blockchain และ DeFi ที่มักพัฒนาระบบจัดการสินทรัพย์จริงของผู้ใช้ บทเรียนนี้ยิ่งสำคัญ เพราะถ้า AI ลบข้อมูล Smart Contract หรือ Private Key โดยไม่ได้ตั้งใจ ความเสียหายอาจไม่ใช่แค่ข้อมูลแต่เป็นเงินจำนวนมหาศาลที่ไม่มีใครรับผิดชอบแทนได้
ส่วนตัวผู้เขียนมองว่าเหตุการณ์นี้ไม่ใช่ความผิดของ AI โดยตรง แต่เป็นสัญญาณว่าคนที่ใช้เครื่องมือเหล่านี้ยังไม่เข้าใจขอบเขตความเสี่ยงอย่างแท้จริง Claude Code นั้นทรงพลังจริง แต่ “ทรงพลัง” กับ “ปลอดภัยในทุกสถานการณ์” คือคนละเรื่องกัน สิ่งที่น่าจับตาคือ Anthropic จะออกมาตรการป้องกันใหม่หรือไม่ เพราะถ้าไม่แก้ไข เหตุการณ์แบบนี้จะเกิดขึ้นอีกแน่นอน
ภาพจาก AI

