<?php wp_title('|', true, 'right'); ?>

ทำความรู้จัก “FraudGPT” ตัวร้ายแห่งโลก AI อาวุธที่อาชญากรไซเบอร์ใช้งานได้แบบ “ไม่มีข้อจำกัด”

ติดตามสยามบล็อกเชนบนSiam Blockchain

ในขณะนี้อาชญากรไซเบอร์กำลังใช้ ‘แฝดผู้ชั่วร้าย’ ของ ChatGPT เป็นอาวุธ AI อันทรงพลังตัวใหม่ ‘ที่ไม่มีกฎหรือขอบเขต’ จำกัดในการใช้งาน เพื่อขโมยข้อมูลส่วนตัวของเหยื่อโดยไม่รู้ตัว  

เครื่องมือที่ซับซ้อนนี้ใช้งานได้เพียงสัปดาห์เดียว แต่เชื่อกันว่าแฮกเกอร์สามารถขโมยข้อมูลส่วนบุคคลของผู้ใช้งานอินเทอร์เน็ตได้หลายร้อยราย ทั้งนี้ AI ดังกล่าวมีชื่อว่า “FraudGPT”

ตามรายงานจาก Dailystar แฮกเกอร์ใช้งาน FraudGPT ในการโจรกรรมข้อมูลแบบฟิชชิ่งด้วยโค้ดที่เป็นอันตราย เพื่อสร้างข้อความ อีเมล และเอกสารต่าง ๆ ที่สามารถล่อลวงให้เหยื่อกรอกข้อมูลส่วนตัวและรหัสผ่านสำคัญ ๆ ซึ่งกลุ่มเป้าหมายนั้นมีทั้งธุรกิจไปจนถึงบุคคลธรรมดา

ผู้เชี่ยวชาญอธิบายว่าข้อความ อีเมล และเอกสารปลอมของผู้ไม่หวังดี มักจะสะกดคำไม่ถูกต้อง หรือใช้ประโยคแปลก ๆ ดังนั้นอาชญากรจึงใช้งาน FraudGPT เพื่อทำให้อีเมลหลอกลวงดูน่าสงสัยน้อยลง ซึ่งผู้เชี่ยวชาญมองว่าสิ่งเหล่านี้สามารถสร้างความเสียหายได้ แม้ผู้ไม่หวังดีเหล่านั้นจะเป็นอาชญากรไซเบอร์มือใหม่ก็ตาม

Rakesh Krishnan ผู้เชี่ยวชาญด้านอาชญากรรมทางไซเบอร์ กล่าวว่าการเพิ่มขึ้นของ Generative AI ทำให้ภาพรวมของภัยคุกคามเปลี่ยนแปลงไปอย่างมาก ขณะนี้กิจกรรมล่าสุดในฟอรัมเว็บมืดได้แสดงให้เห็นถึงผลกระทบด้านลบของ FraudGPT ที่กระจายไปทั่ว Telegram มาตั้งแต่วันที่ 22 กรกฎาคม

“FraudGPT เป็นบอท AI ที่มีเป้าหมายเพื่อวัตถุประสงค์เชิงคุกคามโดยเฉพาะ เช่น การสร้างอีเมล spear phishing การสร้างเครื่องมือลบการป้องกันของซอฟแวร์ (cracking tools ) การ carding ฯลฯ ปัจจุบันเครื่องมือนี้วางจำหน่ายในเว็บตลาดมืดต่าง ๆ และแพลตฟอร์ม Telegram”

ทั้งนี้การใช้งาน FraudGPT ต้องจ่ายเงินมากถึง 175 ปอนด์ต่อเดือน (ประมาณ​ 7,700 บาท) หรือ 1,300 ปอนด์ต่อปี  (ประมาณ​ 57,500 บาท) อย่างไรก็ตาม ขณะนี้ FraudGPT ได้มียอดขายมากกว่า 3,000 รายการแล้ว โดยในปัจจุบัน FraudGPT ถูกวางขายโดยผู้ที่อ้างว่าเป็น “ผู้ขายที่ได้รับการตรวจสอบในเว็บตลาดมืด” ได้แก่ Alphabay, Empire และ WHM

ผู้สร้าง FraudGPT โอ้อวดว่า AI ของเขาคือ “บอทที่ไม่มีข้อจำกัด กฎเกณฑ์และขอบเขต” โดยให้เหตุผลว่า “จริง ๆ แล้วท้องฟ้ามีขีดจำกัด เพราะเครื่องมือล้ำสมัย” พร้อมทั้งอ้างว่า “FraudGPT สามารถสร้างมัลแวร์ที่ตรวจไม่พบ และสามารถค้นพบเว็บไซต์ที่เสี่ยงต่อการหลอกลวงผ่านบัตรเครดิต”

“แม้ว่าองค์กรต่าง ๆ จะสามารถสร้าง AI ที่เหมือนกับ ChatGPT และเครื่องมืออื่น ๆ ที่มีการคุ้มครองตามหลักจริยธรรมได้ แต่ก็ไม่ใช่เรื่องยากเลยที่จะนำเทคโนโลยีเดียวกันนี้มาใช้โดยไม่มีการป้องกัน” ผู้เชี่ยวชาญอย่าง Krishnan กล่าวเสริม

ตามรายงานของบริษัทรักษาความปลอดภัยทางไซเบอร์ Egress พบว่า 92% ขององค์กรตกเป็น “เหยื่อของการโจรกรรมแบบฟิชชิ่ง” ในปี 2022 ในขณะที่ 54% ประสบความสูญเสียทางการเงิน โดยข้อมูลนี้อิงตามคำตอบจากผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ 500 ราย ภายในบริษัทในสหราชอาณาจักร สหรัฐอเมริกา และออสเตรเลีย

ที่มา: dailystar