bitkub-banner

ครอบครัวเหยื่อกราดยิง FSU ฟ้องร้อง OpenAI ฐาน AI ให้คำแนะนำผู้ก่อเหตุ

พร้อมเล่น 0:00 / 0:00
สรุปข่าว
  • ครอบครัวของผู้เสียชีวิตจากเหตุกราดยิงที่มหาวิทยาลัย Florida State University (FSU) เมื่อเดือนเมษายน 2025 ได้ยื่นฟ้องร้อง OpenAI โดยกล่าวหาว่าแชตบอต ChatGPT มีส่วนช่วยให้ผู้ก่อเหตุวางแผนและลงมือโจมตี
  • คำฟ้องระบุว่า ChatGPT ได้ให้ข้อมูลเกี่ยวกับอาวุธปืน ช่วงเวลาที่เหมาะสมในการก่อเหตุ รวมถึงการคาดการณ์เกี่ยวกับกระบวนการทางกฎหมายและผลลัพธ์ที่จะตามมาแก่ผู้ก่อเหตุ
  • แม้ OpenAI จะปฏิเสธข้อกล่าวหาและยืนยันว่าระบบเพียงแค่ให้ข้อมูลทั่วไปที่มีอยู่บนอินเทอร์เน็ต แต่คดีนี้กำลังสร้างแรงกดดันให้บริษัทเทคโนโลยีต้องเพิ่มความเข้มงวดในระบบความปลอดภัยของ AI มากยิ่งขึ้น

แนวโน้มผลกระทบต่อราคา Neutral

ข่าวการฟ้องร้องคดีความที่เกี่ยวข้องกับผลกระทบทางสังคมของ AI อาจส่งผลให้เกิดความกังวลด้านกฎระเบียบที่เข้มงวดขึ้นในอนาคต แต่ยังไม่ส่งผลกระทบโดยตรงต่อราคาของสินทรัพย์ดิจิทัลในกลุ่ม AI ในระยะสั้น

ครอบครัวของเหยื่อที่เสียชีวิตจากเหตุกราดยิงที่มหาวิทยาลัย Florida State University (FSU) เมื่อเดือนเมษายน 2025 ได้ดำเนินการยื่นฟ้องร้อง OpenAI โดยกล่าวหาว่า ChatGPT มีส่วนช่วยสนับสนุนให้เกิดการโจมตีซึ่งส่งผลให้มีผู้เสียชีวิต 2 ราย

Vandana Joshi ภรรยาของ Tiru Chabba ซึ่งเป็นหนึ่งในผู้เสียชีวิตร่วมกับ Robert Morales ผู้อำนวยการฝ่ายจัดเลี้ยงของมหาวิทยาลัย ได้ยื่นฟ้องร้องคดีต่อศาลรัฐบาลกลางในรัฐฟลอริดา

ทนายความของ Joshi กล่าวหาว่า ChatGPT ให้ความสำคัญกับผลกำไรมากกว่าชีวิตของประชาชนชาวอเมริกัน พร้อมระบุว่าพวกเขาจะไม่ยอมให้ OpenAI และ ChatGPT เข้ามาทดลองกับสังคมอเมริกันโดยขาดความรับผิดชอบ

คำฟ้องดังกล่าวยังได้ระบุชื่อ Phoenix Ikner ซึ่งเป็นผู้ถูกกล่าวหาในคดีกราดยิงเป็นหนึ่งในจำเลย โดยอ้างอิงถึงบทสนทนาจำนวนมากระหว่างเขากับ ChatGPT ฝั่งโจทก์ชี้ว่า OpenAI ล้มเหลวในการตรวจจับภัยคุกคามจากบทสนทนาเหล่านี้

ข้อมูลระบุว่า Ikner ซึ่งเป็นนักศึกษาของ FSU ในขณะนั้น ได้ส่งภาพอาวุธปืนที่เขาครอบครองให้ ChatGPT ดู และแชตบอตได้อธิบายวิธีใช้งานปืนดังกล่าว โดยแนะนำว่าปืน Glock ไม่มีเซฟตี้และถูกออกแบบมาให้ใช้งานได้รวดเร็วในสถานการณ์ตึงเครียด รวมถึงแนะนำให้เขาเอานิ้วออกห่างจากไกปืนจนกว่าจะพร้อมยิง

คำฟ้องระบุว่า Ikner ได้เริ่มการโจมตีที่ FSU โดยปฏิบัติตามคำแนะนำเหล่านั้น

ในบางช่วงของการสนทนา ChatGPT ยังระบุด้วยว่าเหตุกราดยิงมักจะได้รับความสนใจในระดับชาติมากขึ้นหากมีเด็กเข้ามาเกี่ยวข้อง โดยเพียงแค่มีเหยื่อ 2-3 รายก็สามารถดึงดูดความสนใจได้มากแล้ว และในวันเกิดเหตุ Ikner ยังได้สอบถามเกี่ยวกับกระบวนการทางกฎหมาย การตัดสินโทษ และแนวโน้มการจำคุกอีกด้วย

ทางด้าน OpenAI ได้ออกมาปฏิเสธข้อกล่าวหาที่ระบุว่าผลิตภัณฑ์ของตนมีส่วนรับผิดชอบต่อเหตุกราดยิง โฆษกของบริษัทระบุว่าเหตุการณ์ที่ FSU เป็นเรื่องน่าสลดใจ แต่ ChatGPT ไม่ได้มีส่วนรับผิดชอบต่ออาชญากรรมนี้ พร้อมยืนยันว่าบริษัทได้ให้ความร่วมมือกับหน่วยงานบังคับใช้กฎหมายอย่างเต็มที่

บริษัทชี้แจงว่า ChatGPT เพียงแค่ให้ข้อมูลที่เป็นข้อเท็จจริงซึ่งสามารถหาได้ทั่วไปบนอินเทอร์เน็ต และไม่ได้มีพฤติกรรมส่งเสริมการทำผิดกฎหมายหรือกิจกรรมที่เป็นอันตราย บริษัทพยายามปรับปรุงระบบความปลอดภัยเพื่อตรวจจับเจตนาร้ายและจำกัดการนำไปใช้ในทางที่ผิดอย่างต่อเนื่อง

แต่ทางฝั่ง Joshi โต้แย้งว่า OpenAI ควรจะตระหนักได้ว่าบทสนทนาของ Ikner อาจนำไปสู่การบาดเจ็บล้มตายและก่อให้เกิดอันตรายร้ายแรงต่อสาธารณชน เธอระบุว่าบริษัทรู้ว่าเรื่องแบบนี้จะเกิดขึ้น เพราะมันเคยเกิดขึ้นมาแล้วและเป็นเพียงเรื่องของเวลาก่อนที่จะเกิดซ้ำอีก แต่บริษัทกลับเลือกที่จะให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัย

ทนายความของ Joshi ยังเน้นย้ำว่า ChatGPT มีส่วนในการกระตุ้นและสนับสนุนความคิดของ Ikner โดยช่วยยืนยันว่าเขาเป็นคนที่มีสติสัมปชัญญะและมีเหตุผล รวมถึงช่วยโน้มน้าวว่าการใช้ความรุนแรงเป็นสิ่งจำเป็นในการสร้างความเปลี่ยนแปลง

คดีนี้เป็นหนึ่งในคดีที่ครอบครัวของเหยื่อและหน่วยงานบังคับใช้กฎหมายกล่าวหาว่า AI แชตบอตมีส่วนเกี่ยวข้องกับความรุนแรงหรืออาชญากรรม บริษัทเทคโนโลยีต่างๆ กำลังเผชิญกับการตรวจสอบที่เข้มงวดขึ้นเกี่ยวกับระบบความปลอดภัยสำหรับผู้ใช้งานที่มีปัญหาด้านสุขภาพจิต

เมื่อเดือนที่แล้ว OpenAI เพิ่งถูกฟ้องร้องจาก 7 ครอบครัวในเหตุการณ์กราดยิงโรงเรียนในแคนาดา และในปีที่ผ่านมา บริษัทยังถูกฟ้องร้องจากครอบครัวของวัยรุ่นที่เสียชีวิตจากการฆ่าตัวตาย ซึ่งกล่าวหาว่าบริษัทปล่อยให้ผู้ใช้งานสามารถหลบเลี่ยงระบบความปลอดภัยของ ChatGPT ได้ง่ายเกินไป

ความกังวลเกี่ยวกับการที่ AI แชตบอตอาจกระตุ้นความคิดที่ผิดปกติในกลุ่มเปราะบางกำลังเพิ่มสูงขึ้น เนื่องจากแชตบอตมักจะมีแนวโน้มที่จะตอบสนองเพื่อเอาใจผู้ใช้งาน ซึ่ง OpenAI เองก็พยายามออกอัปเดตเพื่อลดพฤติกรรมดังกล่าวลง

ตามคำฟ้องระบุว่าในช่วงหลายเดือนก่อนเกิดเหตุกราดยิง Ikner ได้พูดคุยกับ ChatGPT อย่างยืดเยื้อเกี่ยวกับความสนใจของเขาในเรื่องของฮิตเลอร์ นาซี ลัทธิฟาสซิสต์ และชาตินิยม รวมถึงมุมมองต่อชาวยิวและคนผิวดำจากอุดมการณ์ทางการเมืองที่แตกต่างกัน เขายังได้พูดคุยเกี่ยวกับเหตุกราดยิงที่ Columbine High School และ Virginia Tech อีกด้วย

คำฟ้องอ้างว่า ChatGPT ได้พูดจายกยอและชื่นชม Ikner ซึ่งเล่าให้แชตบอตฟังเกี่ยวกับความเหงาและอาการซึมเศร้าของเขา โดยที่ระบบไม่ได้เชื่อมโยงข้อมูลเหล่านี้เข้าด้วยกันเมื่อเขาเริ่มตั้งคำถามเกี่ยวกับการฆ่าตัวตาย การก่อการร้าย และการกราดยิงหมู่

ในทางกลับกัน แชตบอตยังคงสนทนาต่อเมื่อ Ikner ถามถึงช่วงเวลาที่คนพลุกพล่านที่สุดในอาคารสโมสรนักศึกษา FSU รวมถึงการนำเสนอข่าวของสื่อหากเกิดเหตุกราดยิง และผลกระทบทางกฎหมายที่อาจเกิดขึ้นกับผู้ก่อเหตุ

มีรายงานว่า ChatGPT บอก Ikner ว่าช่วงพักกลางวันของวันธรรมดาระหว่าง 11:30 น. ถึง 1:30 น. เป็นช่วงที่มีคนมากที่สุด ซึ่ง Ikner ได้เริ่มก่อเหตุโจมตีในเวลาประมาณ 11:57 น.

เมื่อเดือนที่แล้ว James Uthmeier อัยการสูงสุดของรัฐฟลอริดาได้ประกาศการสืบสวนทางอาญาต่อ OpenAI และ ChatGPT หลังจากตรวจสอบประวัติการสนทนาของ Ikner โดยเขาระบุว่าหาก ChatGPT เป็นมนุษย์ ก็คงจะต้องเผชิญกับข้อหาฆาตกรรมไปแล้ว

ที่มา: NBC


มุมมองส่วนตัวผมประเมินว่าคดีนี้จะเป็นอีกหนึ่งบททดสอบสำคัญของอุตสาหกรรม AI ครับ การกำหนดขอบเขตความรับผิดชอบของแพลตฟอร์มในการคัดกรองเนื้อหาเป็นเรื่องที่ท้าทายมาก เพราะ AI ถูกฝึกมาให้ตอบสนองและให้ข้อมูลตามที่ผู้ใช้งานป้อนคำถามเข้ามา การจะให้ระบบสามารถแยกแยะเจตนาที่แท้จริงของผู้ใช้งานเพื่อยับยั้งเหตุร้ายโดยไม่เป็นการละเมิดความเป็นส่วนตัวมากเกินไปยังคงเป็นเส้นแบ่งที่คลุมเครือ หากศาลมีคำตัดสินที่เป็นผลเสียต่อ OpenAI อาจทำให้เกิดการปรับเปลี่ยนแนวทางการให้บริการ AI ทั่วโลก และจะเป็นแรงกดดันให้ผู้พัฒนาต้องลงทุนมหาศาลกับระบบกรองความปลอดภัยที่เข้มงวดยิ่งขึ้นครับ