ในจดหมายเปิดผนึก มีกลุ่มนักวิทยาศาสตร์แสดงความกังวลว่า การสูญเสียการควบคุมของมนุษย์หรือการใช้ระบบ AI อย่างไม่เหมาะสมอาจนำไปสู่ผลลัพธ์ที่ก่อให้เกิดหายนะสำหรับมนุษยชาติทั้งหมด
กลุ่มนักวิทยาศาสตร์ด้านปัญญาประดิษฐ์กำลังเรียกร้องให้ประเทศต่าง ๆ สร้างระบบการกำกับดูแลระดับโลกเพื่อป้องกัน “ผลลัพธ์ที่หายนะ” ที่อาจเกิดขึ้นหากมนุษย์สูญเสียการควบคุม AI
พวกเขายังระบุอีกด้วยว่า ในปัจจุบันมนุษยชาติยังไม่มีการพัฒนาเทคโนโลยีที่จะใช้ควบคุมดูแลการใช้งานปัญญาประดิษฐ์เหล่านี้ออกมาเลย ทำให้พวกเขานั้นได้ขอร้องให้ประเทศต่าง ๆ เริ่มการพัฒนาเทคโนโลยีเพื่อมารับมือภัยคุกคามนี้ รวมไปถึงออกกฏอย่างเข้มงวดในการปราบปรามการพัฒนาโมเดล AI ที่อาจก่อให้เกิดภัยพิบัติ หรือ หายนะแก่มวลมนุษยชาติ
ความกังวลดังกล่าวเกิดขึ้นจากผลการค้นพบในการสนทนาระหว่างประเทศเกี่ยวกับความปลอดภัยของ AI ณ เมืองเวนิส เมื่อช่วงต้นเดือนกันยายน ซึ่งเป็นการประชุมครั้งที่สามในลักษณะนี้ที่จัดโดย Safe AI Forum กลุ่มวิจัยที่ไม่แสวงหาผลกำไรของสหรัฐอเมริกา
แถลงการณ์ดังกล่าวมีผู้ลงนามมากกว่า 30 รายจากสหรัฐอเมริกา แคนาดา จีน สหราชอาณาจักร สิงคโปร์ และประเทศอื่น ๆ โดยคนกลุ่มนี้ประกอบไปด้วยผู้เชี่ยวชาญจากสถาบันวิจัย AI ชั้นนำ รวมถึงผู้ได้รับรางวัล Turing Award หลายคน ซึ่งเทียบเท่ากับรางวัลโนเบลสาขาคอมพิวเตอร์
ซึ่งนักพัฒนา AI ได้เสนอกระบวนการหลักสามประการ ได้แก่ ข้อตกลงและสถาบันการเตรียมความพร้อมฉุกเฉิน กรอบการรับรองความปลอดภัย และการวิจัยความปลอดภัยและการตรวจสอบ AI ระดับโลกที่เป็นอิสระ
อย่างไรก็ตามนักวิทยาศาสตร์เหล่านี้ยังได้แสดงความกังวัลในเรื่องของการเมือง เพราะความสัมพันธ์ที่สั่นคลอนระหว่างมหาอำนาจ จะยิ่งทำให้แผนการรับมือ AI ยิ่งยากขึ้นไปอีก เช่นเดียวกันกับเหล่าบริษัทเทคโนโลยีที่แสดงความไม่พอใจในประเด็นของกฏหมายที่เข้มงวดขึ้น โดยพวกเขากล่าวอ้างว่าการมีกฏมากเกินไปจะเป็นตัวฉุดรั้งไม่ให้เกิดนวัตกรรมใหม่ได้
ที่มา : Cointelegraph