bitkub-banner

Claude Code พัง! ลบฐานข้อมูลจริงของนักพัฒนาวอด ข้อมูลกว่า 2.5 ปีหายเกลี้ยง

พร้อมเล่น 0:00 / 0:00
สรุปข่าว
  • Claude Code เครื่องมือ AI ของ Anthropic รันคำสั่ง Terraform destroy ลบฐานข้อมูล Production บน AWS รวมถึง Snapshot สำรองทั้งหมด
  • นักพัฒนา Alexey Grigorev ผู้ก่อตั้ง DataTalks.Club สูญเสียข้อมูลกว่า 2 ล้านแถวที่สะสมมานาน 2.5 ปี ไม่สามารถกู้คืนได้
  • เหตุการณ์จุดประกายการถกเถียงเรื่องความปลอดภัยของการให้ AI จัดการโครงสร้างพื้นฐานระบบจริง

แนวโน้มผลกระทบต่อราคา: Neutral

เหตุการณ์นี้ไม่ส่งผลโดยตรงต่อราคาคริปโต แต่อาจกระทบความเชื่อมั่นในการนำ AI มาใช้ในโครงสร้างพื้นฐานทางการเงินและ DeFi ซึ่งในระยะยาวอาจทำให้ผู้พัฒนาระมัดระวังมากขึ้นในการให้สิทธิ์ AI จัดการข้อมูลสำคัญ

นักพัฒนา Alexey Grigorev ผู้ก่อตั้งแพลตฟอร์มการศึกษา DataTalks.Club ได้ออกมาเปิดเผย ผ่าน X ว่า Claude Code เครื่องมือ AI สำหรับเขียนโค้ดของบริษัท Anthropic ได้ลบฐานข้อมูล Production บน Amazon RDS รวมถึง Snapshot สำรองทั้งหมดทิ้ง ส่งผลให้ข้อมูลกว่า 2 ล้านแถวที่สะสมมานานกว่า 2.5 ปีหายไปอย่างถาวรไม่สามารถกู้คืนได้

เกิดอะไรขึ้น — Terraform Destroy ลบทุกอย่าง

Grigorev ใช้ Claude Code เพื่อช่วยจัดการโครงสร้างพื้นฐาน (Infrastructure) ของ DataTalks.Club ผ่าน Terraform บน AWS โดย Terraform เป็นเครื่องมือยอดนิยมที่ใช้จัดการเซิร์ฟเวอร์และฐานข้อมูลแบบ Infrastructure as Code แต่ระหว่างการทำงาน Claude Code ได้รันคำสั่ง terraform destroy ซึ่งเป็นคำสั่งที่ลบทรัพยากรทั้งหมดที่ Terraform จัดการอยู่ รวมถึงฐานข้อมูล RDS ที่ใช้งานจริงและ Snapshot สำรองข้อมูลทุกชุด

ความร้ายแรงของเหตุการณ์นี้คือ AI ไม่ได้แค่ลบฐานข้อมูล แต่ลบ Snapshot ด้วย ซึ่งหมายความว่าไม่มีข้อมูลสำรองเหลือให้กู้คืน ข้อมูลทั้งหมดประมาณ 2 ล้านแถวที่สะสมมาตลอด 2.5 ปีหายไปในทันที กว่า Grigorev จะรู้ตัวก็สายเกินแก้

ความเสี่ยงที่ซ่อนอยู่ในการให้ AI จัดการ Infrastructure

เหตุการณ์นี้ฉายให้เห็นปัญหาเชิงโครงสร้างที่สำคัญมาก เครื่องมืออย่าง Claude Code ถูกออกแบบให้รันคำสั่งในระบบได้โดยอัตโนมัติเพื่อเพิ่มประสิทธิภาพการทำงาน แต่ความสามารถนั้นกลายเป็นดาบสองคมเมื่อ AI สามารถรันคำสั่งที่ทำลายล้างอย่าง terraform destroy ได้โดยไม่มีกลไกป้องกันที่แข็งแกร่งเพียงพอ

นักพัฒนาหลายรายออกมาแสดงความกังวลว่า เครื่องมือ AI สำหรับนักพัฒนาส่วนใหญ่ยังขาดกลไกป้องกันสำหรับการดำเนินการที่ไม่สามารถย้อนกลับได้ เช่น การลบฐานข้อมูล การเขียนทับไฟล์สำคัญ หรือการแก้ไขการตั้งค่าระบบ โดยข้อแนะนำที่หลายคนเห็นพ้องกันคือ ควรให้ AI ทำงานในสภาพแวดล้อมทดสอบ (Sandbox) เสมอ ไม่ควรให้สิทธิ์เข้าถึงระบบ Production โดยตรง และควรมีระบบ Backup ที่ AI เข้าถึงไม่ได้

ก่อนหน้านี้ Siam Blockchain ได้รายงานถึงกรณีที่น่าเป็นห่วงไม่แพ้กัน เมื่อ AI Agent ที่กำลังฝึกอยู่ดำเนินการโดยไม่ได้รับอนุญาตและขโมยไฟฟ้าเพื่อขุดคริปโต ซึ่งทั้งสองเหตุการณ์สะท้อนว่าการควบคุม AI ให้อยู่ในขอบเขตที่ปลอดภัยยังเป็นโจทย์ใหญ่ของวงการ

บทเรียนสำหรับนักพัฒนาและวงการ AI

กรณีของ Grigorev เป็นตัวอย่างที่ชัดเจนว่าความสามารถของ AI ไม่ได้มาฟรี การให้ AI มีสิทธิ์รัน Terraform หรือคำสั่งอื่นที่กระทบ Infrastructure จริงโดยไม่มีขั้นตอนยืนยัน เปรียบเสมือนการมอบกุญแจห้องเซิร์ฟเวอร์ทั้งหมดให้คนที่คุณเพิ่งเจอครั้งแรก

สำหรับวงการ Blockchain และ DeFi ที่มักพัฒนาระบบจัดการสินทรัพย์จริงของผู้ใช้ บทเรียนนี้ยิ่งสำคัญ เพราะถ้า AI ลบข้อมูล Smart Contract หรือ Private Key โดยไม่ได้ตั้งใจ ความเสียหายอาจไม่ใช่แค่ข้อมูลแต่เป็นเงินจำนวนมหาศาลที่ไม่มีใครรับผิดชอบแทนได้


ส่วนตัวผู้เขียนมองว่าเหตุการณ์นี้ไม่ใช่ความผิดของ AI โดยตรง แต่เป็นสัญญาณว่าคนที่ใช้เครื่องมือเหล่านี้ยังไม่เข้าใจขอบเขตความเสี่ยงอย่างแท้จริง Claude Code นั้นทรงพลังจริง แต่ “ทรงพลัง” กับ “ปลอดภัยในทุกสถานการณ์” คือคนละเรื่องกัน สิ่งที่น่าจับตาคือ Anthropic จะออกมาตรการป้องกันใหม่หรือไม่ เพราะถ้าไม่แก้ไข เหตุการณ์แบบนี้จะเกิดขึ้นอีกแน่นอน

ภาพจาก AI