<?php wp_title('|', true, 'right'); ?>

Elon Musk และผู้บริหารด้านเทคโนโลยี เรียกร้องให้หยุดพัฒนา AI ชั่วคราว หวั่นกระทบมวลมนุษยชาติ

ติดตามสยามบล็อกเชนบนSiam Blockchain

ผู้นำและนักวิจัยด้านเทคโนโลยีกว่า 2,600 คน ได้ลงนามในจดหมายเปิดผนึกเพื่อเรียกร้องให้หยุดการพัฒนาปัญญาประดิษฐ์ (AI) ชั่วคราว เนื่องจากเกรงว่า “จะเกิดความเสี่ยงอย่างร้ายแรงต่อสังคมและมนุษยชาติ” ทั้งนี้ผู้เขียนจดหมายกล่าวว่า AI ขั้นสูงอาจทำให้เกิดการเปลี่ยนแปลงในประวัติศาสตร์ของสิ่งมีชีวิตบนโลก ทั้งในด้านที่ดีขึ้นหรือแย่ลง

Elon Musk CEO ของ Tesla และ Steve Wozniak ผู้ร่วมก่อตั้ง Apple รวมไปถึง CEO, CTO และนักวิจัยของบริษัท AI หลายแห่ง ต่างร่วมกันลงนามในจดหมายฉบับนี้ ซึ่งจดหมายดังกล่าวได้รับการเผยแพร่โดยสถาบัน Think Tank Future of Life Institute (FOLI) ของสหรัฐฯ เมื่อวันที่ 22 มีนาคม

ผู้ร่วมลงนามทุกคนต่างเรียกร้องให้บริษัท AI ทั้งหมด “หยุดการพัฒนา AI ทันที” โดยระบุว่าให้ยุติการฝึกอบรมระบบ AI ไม่ให้มีประสิทธิภาพเหนือกว่า GPT-4 เป็นเวลาอย่างน้อย 6 เดือน พร้อมทั้งแสดงความกังวลว่า “การแข่งขันของมนุษย์อาจก่อให้เกิดความเสี่ยงอย่างร้ายแรงต่อสังคมและมนุษยชาติ”

“AI ขั้นสูงสามารถเป็นตัวแทนของการเปลี่ยนแปลงอย่างลึกซึ้งในประวัติศาสตร์ของสิ่งมีชีวิตบนโลก ดังนั้นจึงควรได้รับการวางแผนและการจัดการเหมาะสม แต่น่าเสียดายที่การวางแผนและการจัดการระดับนี้ไม่ได้เกิดขึ้น” สถาบัน FOLI กล่าว

GPT-4 เป็นการพัฒนาล่าสุดของแชทบอทที่ขับเคลื่อนด้วย AI ของ OpenAI ซึ่งเปิดตัวเมื่อวันที่ 14 มีนาคม และจนถึงปัจจุบัน GPT-4 ก็ได้ผ่านการสอบระดับมัธยมศึกษาตอนปลาย รวมทั้งผ่านการสอบกฎหมายในเปอร์เซ็นไทล์ที่ 90 อีกด้วย ซึ่งการสอบกฎหมายถือเป็นการสอบที่มีความเข้มงวดที่สุดของสหรัฐอเมริกา ดังนั้นคนส่วนใหญ่จึงเห็นตรงกันว่า GPT-4 มีความล้ำหน้ากว่า ChatGPT เวอร์ชันเดิมถึง 10 เท่า

ความล้ำหน้านี้ได้นำไปสู่ “การแข่งขันที่ควบคุมไม่ได้” ระหว่างบริษัท AI ทั่วโลก เพื่อพัฒนา AI ที่มีประสิทธิภาพมากยิ่งขึ้น โดยที่ “ไม่มีใครสามารถเข้าใจ คาดการณ์ หรือควบคุม AI ได้อย่างน่าเชื่อถือ” สถาบัน FOLI ระบุ

ข้อกังวลอันดับต้น ๆ ในขณะนี้ ได้แก่ เครื่องจักรจะสามารถบุกรุกแหล่งข้อมูลต่าง ๆ ได้หรือไม่ อาจมีการโฆษณาชวนเชื่อและเรื่องหลอกลวงหรือไม่ หรือเครื่องจักรจะสามารถ “กำจัด” โอกาสในการจ้างงานทั้งหมดโดยอัตโนมัติได้หรือไม่ ทว่า FOLI ได้ก้าวนำหน้าข้อกังวลเหล่านี้ไปอีกขั้น โดยเสนอว่าความพยายามของผู้ประกอบการบริษัท AI เหล่านี้อาจนำไปสู่ภัยคุกคาม

นอกจากนี้ สถาบัน FOLI ยังเห็นด้วยกับแถลงการณ์ล่าสุดจาก Sam Altman ผู้ก่อตั้ง OpenAI ด้วยว่า “ควรมีการตรวจสอบอย่างอิสระ ก่อนที่จะฝึกอบรมระบบ AI ในอนาคต”

Altman กล่าวในบล็อกโพสต์เมื่อวันที่ 24 ก.พ. โดยเน้นย้ำถึงความจำเป็นในการเตรียมพร้อมหุ่นยนต์ปัญญาประดิษฐ์ทั่วไป (AGI) และสุดยอดหุ่นยนต์ AI ที่มีปัญญาเหนือกว่ามนุษย์ (Artificial Superintelligence – ASI)

Ben Goertzel CEO ของ SingularityNET อธิบายใน Twitter เมื่อวันที่ 29 มี.ค. ว่าโมเดลการเรียนรู้ภาษา (LLMs) จะไม่กลายเป็น AGI แม้ว่าปัจจุบันจะกำลังมีการพัฒนาเล็กน้อย อีกทั้งเขายังกล่าวเสริมด้วยว่า “ควรชะลอการวิจัยและพัฒนาสิ่งต่าง ๆ เช่น อาวุธชีวภาพและนิวเคลียร์”

นอกเหนือจากโมเดลการเรียนรู้ภาษาเช่น ChatGPT แล้ว เทคโนโลยี Deep Fake ที่ขับเคลื่อนด้วย AI ยังถูกนำมาใช้เพื่อสร้างภาพ เสียง และวิดีโอ “เพื่อการหลอกลวง” ได้อย่างน่าเชื่อถือ ขณะเดียวกันเทคโนโลยีนี้ยังถูกใช้เพื่อสร้างงานศิลปะโดย AI จนนำไปสู่ข้อกังวลบางประการที่ว่าสิ่งนี้อาจเป็นต้นเหตุของการละเมิดกฎหมายด้านลิขสิทธิ์ในบางกรณี

ในอีกด้านหนึ่ง FOLI ยังได้กล่าวเพิ่มเติมอีกว่า ถ้าหากการหยุดพัฒนา AI ชั่วคราวไม่มีผลบังคับใช้อย่างรวดเร็ว รัฐบาลก็ควรมีส่วนร่วมในการออกนโยบายเพื่อสนับสนุน

“การหยุดพัฒนา AI ชั่วคราวนี้ ควรเปิดเผยต่อสาธารณะ รวมถึงผู้มีส่วนสำคัญทั้งหมด และควรที่จะสามารถตรวจสอบได้ และถ้าหากการหยุดพัฒนาดังกล่าวไม่สามารถดำเนินการได้อย่างรวดเร็ว รัฐบาลก็ควรเข้ามามีส่วนร่วมด้วยการดำเนินการเพื่อหยุดการพัฒนาชั่วคราวครั้งนี้”

ที่มา: cointelegraph