ในขณะนี้อาชญากรไซเบอร์กำลังใช้ ‘แฝดผู้ชั่วร้าย’ ของ ChatGPT เป็นอาวุธ AI อันทรงพลังตัวใหม่ ‘ที่ไม่มีกฎหรือขอบเขต’ จำกัดในการใช้งาน เพื่อขโมยข้อมูลส่วนตัวของเหยื่อโดยไม่รู้ตัว
เครื่องมือที่ซับซ้อนนี้ใช้งานได้เพียงสัปดาห์เดียว แต่เชื่อกันว่าแฮกเกอร์สามารถขโมยข้อมูลส่วนบุคคลของผู้ใช้งานอินเทอร์เน็ตได้หลายร้อยราย ทั้งนี้ AI ดังกล่าวมีชื่อว่า “FraudGPT”
ตามรายงานจาก Dailystar แฮกเกอร์ใช้งาน FraudGPT ในการโจรกรรมข้อมูลแบบฟิชชิ่งด้วยโค้ดที่เป็นอันตราย เพื่อสร้างข้อความ อีเมล และเอกสารต่าง ๆ ที่สามารถล่อลวงให้เหยื่อกรอกข้อมูลส่วนตัวและรหัสผ่านสำคัญ ๆ ซึ่งกลุ่มเป้าหมายนั้นมีทั้งธุรกิจไปจนถึงบุคคลธรรมดา
ผู้เชี่ยวชาญอธิบายว่าข้อความ อีเมล และเอกสารปลอมของผู้ไม่หวังดี มักจะสะกดคำไม่ถูกต้อง หรือใช้ประโยคแปลก ๆ ดังนั้นอาชญากรจึงใช้งาน FraudGPT เพื่อทำให้อีเมลหลอกลวงดูน่าสงสัยน้อยลง ซึ่งผู้เชี่ยวชาญมองว่าสิ่งเหล่านี้สามารถสร้างความเสียหายได้ แม้ผู้ไม่หวังดีเหล่านั้นจะเป็นอาชญากรไซเบอร์มือใหม่ก็ตาม
Rakesh Krishnan ผู้เชี่ยวชาญด้านอาชญากรรมทางไซเบอร์ กล่าวว่าการเพิ่มขึ้นของ Generative AI ทำให้ภาพรวมของภัยคุกคามเปลี่ยนแปลงไปอย่างมาก ขณะนี้กิจกรรมล่าสุดในฟอรัมเว็บมืดได้แสดงให้เห็นถึงผลกระทบด้านลบของ FraudGPT ที่กระจายไปทั่ว Telegram มาตั้งแต่วันที่ 22 กรกฎาคม
“FraudGPT เป็นบอท AI ที่มีเป้าหมายเพื่อวัตถุประสงค์เชิงคุกคามโดยเฉพาะ เช่น การสร้างอีเมล spear phishing การสร้างเครื่องมือลบการป้องกันของซอฟแวร์ (cracking tools ) การ carding ฯลฯ ปัจจุบันเครื่องมือนี้วางจำหน่ายในเว็บตลาดมืดต่าง ๆ และแพลตฟอร์ม Telegram”
ทั้งนี้การใช้งาน FraudGPT ต้องจ่ายเงินมากถึง 175 ปอนด์ต่อเดือน (ประมาณ 7,700 บาท) หรือ 1,300 ปอนด์ต่อปี (ประมาณ 57,500 บาท) อย่างไรก็ตาม ขณะนี้ FraudGPT ได้มียอดขายมากกว่า 3,000 รายการแล้ว โดยในปัจจุบัน FraudGPT ถูกวางขายโดยผู้ที่อ้างว่าเป็น “ผู้ขายที่ได้รับการตรวจสอบในเว็บตลาดมืด” ได้แก่ Alphabay, Empire และ WHM
ผู้สร้าง FraudGPT โอ้อวดว่า AI ของเขาคือ “บอทที่ไม่มีข้อจำกัด กฎเกณฑ์และขอบเขต” โดยให้เหตุผลว่า “จริง ๆ แล้วท้องฟ้ามีขีดจำกัด เพราะเครื่องมือล้ำสมัย” พร้อมทั้งอ้างว่า “FraudGPT สามารถสร้างมัลแวร์ที่ตรวจไม่พบ และสามารถค้นพบเว็บไซต์ที่เสี่ยงต่อการหลอกลวงผ่านบัตรเครดิต”
“แม้ว่าองค์กรต่าง ๆ จะสามารถสร้าง AI ที่เหมือนกับ ChatGPT และเครื่องมืออื่น ๆ ที่มีการคุ้มครองตามหลักจริยธรรมได้ แต่ก็ไม่ใช่เรื่องยากเลยที่จะนำเทคโนโลยีเดียวกันนี้มาใช้โดยไม่มีการป้องกัน” ผู้เชี่ยวชาญอย่าง Krishnan กล่าวเสริม
ตามรายงานของบริษัทรักษาความปลอดภัยทางไซเบอร์ Egress พบว่า 92% ขององค์กรตกเป็น “เหยื่อของการโจรกรรมแบบฟิชชิ่ง” ในปี 2022 ในขณะที่ 54% ประสบความสูญเสียทางการเงิน โดยข้อมูลนี้อิงตามคำตอบจากผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ 500 ราย ภายในบริษัทในสหราชอาณาจักร สหรัฐอเมริกา และออสเตรเลีย
ที่มา: dailystar