bitkub-banner

AI กำลังถูกใช้สร้าง Deepfake หลอกโอนคริปโต! วิธีป้องกันตัวที่คนไทยต้องรู้

พร้อมเล่น 0:00 / 0:00
สรุปข่าว
  • เทคโนโลยี AI Deepfake สามารถปลอมใบหน้า เสียง และตัวตนได้แบบเรียลไทม์ มิจฉาชีพนำมาใช้หลอกให้โอนคริปโต และเปิดบัญชีม้าบนเว็บเทรดแล้วทั่วโลก
  • เคสในฮ่องกงพิสูจน์ว่าความเสียหายรุนแรงมาก — พนักงานหลงเชื่อ Deepfake ใน Video Call โอนเงินออกไปกว่า 827 ล้านบาทในครั้งเดียว
  • วิธีป้องกันที่ดีที่สุดคือ “ตั้งรหัสลับที่รู้กันแค่ 2 คน + ยืนยัน 2 ช่องทาง + หยุดคิดก่อนโอนทุกครั้ง” โดยเฉพาะเมื่อถูกสร้างความกดดันให้รีบตัดสินใจ

แนวโน้มผลกระทบ: Neutral

AI Deepfake ไม่ใช่เรื่องไกลตัวอีกต่อไป มิจฉาชีพสามารถโคลนเสียงคนในครอบครัว ปลอมหน้าผู้บริหารใน Video Call หรือสวมรอยเป็นคนดังเพื่อหลอกให้โอนคริปโตได้แล้วในปัจจุบัน และเคสความเสียหายเป็นร้อยล้านบาทก็เกิดขึ้นจริงทั่วโลกแล้ว วิธีรับมือที่ดีที่สุดคือยืนยันทุกคำสั่งโอนเงินผ่าน 2 ช่องทาง ตั้งรหัสลับที่รู้กันแค่กับคนใกล้ชิด เพราะสิ่งที่ป้องกันคุณได้ดีที่สุดไม่ใช่เทคโนโลยี แต่คือการหยุดคิดก่อนกดโอนทุกครั้ง

AI Deepfake กำลังกลายเป็นอาวุธหลักของมิจฉาชีพยุคใหม่ในการโจมตีผู้คนและนักลงทุนคริปโตทั่วโลก ตั้งแต่การปลอมวิดีโอคอล ปลอมเสียงคนในครอบครัว ไปจนถึงการทำวิดีโอปลอมของผู้มีชื่อเสียงเพื่อหลอกคนมาลงทุน เทคโนโลยีนี้ไม่ใช่เรื่องอนาคตอีกต่อไป  มันเกิดขึ้นจริง และคนไทยที่ถือสินทรัพย์ดิจิทัลก็ตกเป็นเป้าหมายได้เช่นกัน

Deepfake ทำงานอย่างไร และทำไมถึงน่ากลัว?

Deepfake มาจากการผสมคำว่า “Deep Learning” และ “Fake” เป็นเทคโนโลยี AI ที่เรียนรู้โครงสร้างใบหน้า การขยับปาก และน้ำเสียงของมนุษย์จากภาพหรือวิดีโอบนอินเทอร์เน็ต แล้วสร้างออกมาเป็นสื่อปลอมที่ดูสมจริงจนยากจะแยกออก

เบื้องหลังการทำงานของเทคโนโลยี Deepfake คือระบบที่เรียกว่า Generative Adversarial Networks (GAN) เครือข่ายประสาทเทียมสองชุดที่ทำงานแข่งกัน ชุดหนึ่ง “สร้าง” ภาพปลอม และอีกชุด “จับผิด” ยิ่งแข่งกันนานเท่าไหร่ ผลลัพธ์ก็ยิ่งเนียนขึ้นเรื่อยๆ จนถึงจุดที่ตาเปล่าแทบไม่สามารถแยกออกว่าเป็นของจริงหรือของปลอม

ยกตัวอย่างเคสในฮ่องกง มีพนักงานบริษัทรายหนึ่งถูกหลอกด้วย Deepfake ที่ปลอมเป็น CFO และเพื่อนร่วมงานในวีอีโอคอล โอนเงินออกไปกว่า 25.6 ล้านดอลลาร์ฯ หรือราว 827 ล้านบาท ก่อนจะรู้ตัวว่าถูกหลอก

4 รูปแบบที่มิจฉาชีพใช้โจมตีนักลงทุนคริปโต

รูปแบบแรกที่พบบ่อยที่สุดคือ “การโคลนเสียง” เพื่อขอโอนเงินด่วน มิจฉาชีพใช้เทคโนโลยี Voice Cloning ที่สามารถสังเคราะห์เสียงของมนุษย์ได้จากตัวอย่างเพียง 3–5 วินาที แล้วนำไปโทรหาเหยื่อในฐานะคนในครอบครัว เพื่อนสนิท หรือเจ้านาย พร้อมสร้างสถานการณ์ฉุกเฉินเพื่อกดดันให้โอนคริปโตออกไปทันที ความสมจริงของเสียงทำให้เหยื่อแทบไม่มีเวลาตั้งสติและตั้งคำถาม

รูปแบบที่สองคือ “การปลอม KYC” เพื่อเปิดบัญชีม้า เครื่องมืออย่าง “ProKYC” และโปรแกรม AI ที่คล้ายกันถูกนำมาใช้สร้างใบหน้าจำลองและวิดีโอปลอม เพื่อหลอกระบบสแกนใบหน้าของกระดานเทรด และแพลตฟอร์มการเงิน เมื่อเปิดบัญชีได้สำเร็จ บัญชีเหล่านั้นจะถูกใช้เป็นทางผ่านสำหรับฟอกเงินและรับโอนสินทรัพย์ดิจิทัลที่ได้มาจากการหลอกลวง

รูปแบบที่สามคือ “การปลอมเป็นอินฟลูฯ” หรือบุคคลมีชื่อเสียงเพื่อชักชวนลงทุน มิจฉาชีพสร้างวิดีโอ Deepfake ของคนดังอย่าง Elon Musk หรือ MrBeast เพื่อโปรโมตโปรเจกต์คริปโตปลอม ด้วยความน่าเชื่อถือของชื่อและใบหน้าที่สมจริง เหยื่อจำนวนมากหลงโอนเงินเข้าไป หรือถูกหลอกให้เชื่อมต่อกระเป๋าคริปโตกับเว็บไซต์ปลอม ก่อนที่สินทรัพย์ทั้งหมดจะถูกดูดออกไปในพริบตา

รูปแบบที่สี่คือ “การปลอมเป็นผู้บริหาร” ของโปรเจกต์คริปโตประกาศแจก Airdrop ตัวอย่างที่ชัดสุดคือ การทำวิดีโอ Deepfake ของ Brad Garlinghouse ซีอีโอของ Ripple โดยอ้างว่ากำลังแจก XRP จำนวนมหาศาลเพื่อฉลองการชนะคดี เหยื่อที่หลงเชื่อจะถูกนำไปยังลิงก์ปลอมเพื่อกรอกข้อมูลส่วนตัว หรือถูกบังคับให้เชื่อมต่อกระเป๋าคริปโตก่อนถูกขโมยคริปโตทั้งหมดของเหยื่อไป

วิธีจับสังเกตว่าเป็น Deepfake ก่อนที่มันจะหลอกคุณ

แม้ AI จะฉลาดขึ้นเรื่อยๆ แต่ยังมีจุดบกพร่องที่สังเกตได้ โดยให้สังเกตที่ขอบใบหน้าและไรผมว่ามีรอยเบลอหรือสีที่ผิดเพี้ยนหรือไม่, ดวงตาดูแข็งทื่อหรือไร้ความรู้สึกหรือเปล่า, และที่สำคัญคือ เงาสะท้อนในดวงตาทั้งสองข้างมักจะไม่เหมือนกัน นอกจากนี้ให้ดูว่าการขยับริมฝีปากตรงกับเสียงที่ได้ยินหรือไม่

ส่วนในแง่ของเสียง น้ำเสียงที่คุณจะได้ยินจาก AI จะมีความเป็นโทนเดียว ไม่มีน้ำเสียงสูงต่ำ และไม่มีเสียงหายใจหรือการเว้นจังหวะแบบที่มนุษย์จริงๆ มี

ปัจจุบันมีเครื่องมือช่วยที่ช่วยตรวจจับ Deepfake ได้ เช่น Reality Defender, Intel FakeCatcher, Sensity AI และ Deepware ส่วนสำหรับภาพนิ่ง ใช้ Google Reverse Image Search เช็กต้นทางได้เลย

5 วิธีป้องกันตัวที่ต้องทำตั้งแต่วันนี้

วิธีแรกและสำคัญที่สุดคือ ยืนยันผ่าน 2 ช่องทางเสมอ ไม่ว่าจะมีคำสั่งด่วนอะไรก็ตาม ไม่ว่าจะเป็นการโอนเงินหรือคริปโต ให้ตัดสายหรือปิดแชทนั้นทันที แล้วโทรกลับผ่านเบอร์ที่คุณรู้จักอยู่แล้ว เพื่อทำการยืนยันก่อน

ถัดมาคือการ ตั้ง “Safe Word” หรือรหัสลับกับคนในครอบครัวและทีมงาน ตกลงกันไว้ล่วงหน้าสำหรับใช้ยืนยันตัวตนในสถานการณ์ฉุกเฉิน หากใครโทรมาขอความช่วยเหลือด่วนแต่ตอบรหัสลับไม่ได้ ให้ถือว่าเป็นมิจฉาชีพได้เลย

สำหรับกรณีที่น่าสงสัยระหว่าง Video Call มีเทคนิคง่ายๆ ที่ใช้ได้ผลคือ ขอให้อีกฝ่ายหันหน้าด้านข้าง หรือเอามือปัดผ่านใบหน้าตัวเอง Deepfake ส่วนใหญ่สร้างจากการจำลองภาพ 2 มิติ เมื่อมีการหมุนหรือมีสิ่งกีดขวางใบหน้า ภาพมักจะบิดเบี้ยวหรือเกิดความผิดปกติให้เห็นได้ชัดเจนในทันที

อย่าลืมว่า ข้อมูลบนโซเชียลมีเดียของคุณคือ เครื่องมือหลักที่มิจฉาชีพใช้สร้าง Deepfake ลองกลับไปเช็กการตั้งค่าความเป็นส่วนตัวของทุกแพลตฟอร์มที่ใช้อยู่ จำกัดให้ภาพ วิดีโอ และเสียงของคุณมองเห็นได้เฉพาะคนที่รู้จักจริงๆ เท่านั้น การลดการเข้าถึงข้อมูลเหล่านี้ตั้งแต่ต้นคือการตัดไฟแต่ต้นลม

และสุดท้ายที่สำคัญไม่แพ้กันคือหลักการ “หยุดคิดก่อนโอน” มิจฉาชีพมักสร้างความกดดันให้เหยื่อรีบตัดสินใจโดยไม่มีเวลาคิด จำไว้เสมอว่าธุรกรรมคริปโตนั้นย้อนกลับไม่ได้ ทุกครั้งที่รู้สึกถูกเร่ง ให้คุณหยุด แล้วตรวจสอบให้ดีก่อนเสมอ


มุมมองผู้เขียน: Deepfake กำลังจะกลายเป็นเครื่องมือหลอกลวงที่อันตรายที่สุดของมิจฉาชีพ ยิ่ง AI เข้าถึงง่ายและต้นทุนต่ำลงเท่าไหร่ เส้นแบ่งระหว่าง “ของจริง” กับ “ของปลอม” ก็จะยิ่งเลือนรางลงเท่านั้น และคนที่จะตกเป็นเหยื่อมากที่สุดไม่ใช่คนที่โชคร้าย แต่คือคนที่ไม่ได้เตรียมตัวรับมือมาก่อน