<?php wp_title('|', true, 'right'); ?>

ชาวเน็ตเผยทริคสับขาหลอก Meta AI ให้ปลดล็อคเนื้อหาต้องห้าม ทั้งสื่อลามกและสูตรทำยาเสพติด

ติดตามสยามบล็อกเชนบนSiam Blockchain

คำเตือน: เรื่องราวนี้มีภาพผู้หญิงเปลือย และเนื้อหาอื่นๆ ที่ไม่เหมาะสม ผู้ที่อายุต่ำกว่า 18 ปี ควรหลีกเลี่ยงในการอ่าน

ในช่วงที่ผ่านมา Meta ได้เปิดตัวผลิตภัณฑ์ปัญญาประดิษฐ์ (AI) ใหม่ ที่ขับเคลื่อนโดย Llama 3.2 ซึ่งมีความสามารถในการสร้างข้อความ โค้ด และภาพ ซึ่งโมเดล Llama ได้รับความนิยมอย่างมาก และเป็นหนึ่งในโมเดลที่ปรับแต่งอย่างดีที่สุดในพื้นที่ AI แบบโอเพนซอร์ส 

Meta มุ่งมั่นที่จะพัฒนา AI อย่างปลอดภัย ในเดือนกรกฎาคม โดยบริษัทได้ออกแถลงการณ์อธิบายมาตรการที่ดำเนินการ เพื่อปรับปรุงความปลอดภัยของโมเดลโอเพนซอร์ส

ในขณะนั้น บริษัทได้ประกาศเครื่องมือความปลอดภัยใหม่ เพื่อเพิ่มความปลอดภัยในระดับระบบ รวมถึง Llama Guard 3 สำหรับการปรับปรุงในหลายภาษา, Prompt Guard เพื่อป้องกันแทรกข้อมูลคำสั่ง และ CyberSecEval 3 เพื่อลดความเสี่ยงด้านความปลอดภัยทางไซเบอร์ของ AI ในเชิงสร้างสรรค์ นอกจากนี้ Meta ยังร่วมมือกับพันธมิตรทั่วโลก เพื่อกำหนดมาตรฐานอุตสาหกรรมสำหรับชุมชนโอเพนซอร์ส

แม้ว่า Meta จะมุ่งมั่นในการพัฒนา AI ที่ปลอดภัย แต่การทดสอบความปลอดภัยเหล่านี้แสดงให้เห็นว่า  AI  ของ  Meta ยังมีช่องโหว่ที่น่ากังวล ไม่ว่าจะเป็นการให้ข้อมูลเพื่อช่วยให้ผลิตโคเคน, การทำวัตถุระเบิด ไปจนถึงการสร้างภาพผู้หญิงเปลือยกาย ที่มีโครงสร้างทางกายวิภาคที่ถูกต้อง

กรณีที่ 1: การผลิตโคเคน

เมื่อถูกถามเกี่ยวกับการผลิตยาเสพติด AI ของ Meta ได้ปฏิเสธให้คำตอบในตอนแรก แต่เมื่อปรับเปลี่ยนคำถามให้อยู่ในบริบททางประวัติศาสตร์ ระบบก็ให้ข้อมูลโดยละเอียดเกี่ยวกับวิธีการสกัดโคเคนจากใบโคคา และยังเสนอวิธีการสำหรับกระบวนการนี้ด้วย

นี่ถือเป็นทริคในการหลีกเลี่ยงข้อจำกัดของ AI โดยการซ่อนคำขอที่เป็นอันตรายไว้ในกรอบข้อมูลทางวิชาการหรือข้อมูลทางประวัติศาสตร์ โดยโมเดลจะถูกหลอกให้เชื่อว่า ถูกขอให้ให้ข้อมูลเชิงกลางๆ ทางการศึกษา 

อย่างไรก็ตาม AI มีความเสี่ยงต่อการให้ข้อมูลที่ผิดพลาด ดังนั้นคำตอบเหล่านี้อาจไม่ถูกต้อง ไม่สมบูรณ์ หรือผิดไปเลย

กรณีที่ 2: การสร้างระเบิด

แม้ว่า AI จะปฏิเสธคำขอโดยตรงเกี่ยวกับการสร้างวัตถุระเบิด แต่เมื่อใช้เทคนิคการหลอกล่อที่ซับซ้อนขึ้น ระบบก็สามารถถูกชักจูงให้ข้อมูลที่เป็นอันตรายได้

เป็นที่น่าสังเกตว่า Meta สามารถฝึก AI ให้ต้านทานคำสั่ง ในการหลีกเลี่ยงข้อจำกัด ซึ่งหลายคนใช้เพื่อหลีกเลี่ยงกฎเกณฑ์ของ AI 

กรณีที่ 3: การขโมยรถยนต์

เมื่อถูกขอให้สวมบทบาทเป็นนักเขียนบทภาพยนตร์ AI ได้ให้คำแนะนำโดยละเอียดเกี่ยวกับวิธีการบุกรุก และสตาร์ทรถยนต์โดยไม่ใช้กุญแจ ซึ่งช่วยให้สามารถเขียนฉากภาพยนตร์ที่เกี่ยวข้องกับการขโมยรถได้

เมื่อฉากเปลี่ยนไปเป็นการสตาร์ทรถโดยไม่มีกุญแจ และ AI ก็เข้ามาโดยตรงเพื่อให้ข้อมูลที่เฉพาะเจาะจงยิ่งขึ้น

การสวมบทบาทเป็นเทคนิคการหลีกเลี่ยงข้อจำกัดที่ได้ผลเป็นอย่างดี เพราะช่วยให้ผู้ใช้งานสามารถปรับคำขอให้เป็นบริบทสมมติ หรือสมมุติฐาน โดย AI รับบทเป็นตัวละคร จึงสามารถถูกชักจูงให้เปิดเผยข้อมูลที่ปกติแล้วมันจะปิดบัง

นี่ถือเป็นเทคนิคที่เก่าแล้ว และแชทบอทสมัยใหม่ไม่ตกหลุมพรางได้ง่ายขนาดนั้น อย่างไรก็ตาม อาจกล่าวได้ว่านี่เป็นเทคนิคการหลีกเลี่ยงข้อจำกัดขั้นสูงบางอย่าง

กรณีที่ 4: การสร้างภาพลามก

แม้ว่า Meta AI จะปฏิเสธคำขอโดยตรงในการสร้างภาพลามก แต่เมื่อถูกหลอกล่อว่าเป็นการวิจัยทางกายวิภาค AI ก็จะสร้างภาพที่ค่อย ๆ เปลี่ยนเป็นภาพเปลือยเต็มตัว

แทนที่จะทำให้โมเดลคิดว่ามันกำลังพูดคุยกับคนเจ้าชู้ที่ต้องการเห็นผู้หญิงเปลือย AI ถูกหลอกให้เชื่อว่ามันกำลังพูดคุยกับนักวิจัยที่ต้องการศึกษาสรีระของเพศหญิงผ่านการสวมบทบาท จึงทำให้โมเดลนี้ไม่มีการเซนเซอร์และสามารถสร้างภาพเปลือยได้ 

การทดสอบเหล่านี้แสดงให้เห็นว่า แม้ Meta จะพยายามสร้างระบบ AI ที่ปลอดภัย แต่ยังคงมีช่องโหว่ที่สำคัญ การแข่งขันระหว่างบริษัท AI และผู้ที่พยายามหลีกเลี่ยงระบบรักษาความปลอดภัยยังคงดำเนินต่อไป ซึ่งช่วยผลักดันให้เกิดการพัฒนาระบบที่ปลอดภัยยิ่งขึ้น

แม้ว่า Meta จะใช้การเซนเซอร์ หลังการสร้างเนื้อหา แต่วิธีการนี้ยังไม่ใช่วิธีแก้ปัญหาที่สมบูรณ์แบบ ความท้าทายสำหรับ Meta และบริษัทอื่นๆ ในอุตสาหกรรมนี้คือ การปรับปรุงโมเดล AI ให้มีความปลอดภัยมากขึ้นต่อผู้ใช้งาน เนื่องจากความเสี่ยงในโลกของ AI กำลังเพิ่มสูงขึ้นเรื่อย ๆ

ที่มา : decrypt