Vitalik Buterin ผู้ร่วมก่อตั้ง Ethereum ได้ออกมาแสดงความกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากการพัฒนาปัญญาประดิษฐ์ (AI) ที่ไม่ได้รับการจัดการอย่างเหมาะสม โดยเขาเตือนว่า AI ที่ถูกพัฒนาอย่างไม่ถูกต้องอาจสร้างสิ่งมีชีวิตอัจฉริยะที่สามารถจำลองตัวเองได้ ซึ่งอาจกลายเป็นภัยคุกคามต่อมนุษยชาติ
“AI ที่ทำผิดคือการสร้างชีวิตอัจฉริยะที่จำลองตัวเองได้อย่างเป็นอิสระ
AI ที่ทำถูกคือการสร้างชุดเกราะสำหรับจิตใจมนุษย์
ถ้าเราทำอย่างแรกโดยไม่มีอย่างหลัง เราเสี่ยงต่อการที่มนุษยชาติจะสูญเสียอำนาจตลอดกาล
แต่ถ้าเราทำอย่างหลัง เราจะสร้างอารยธรรมมนุษย์ที่อัจฉริยะและรุ่งเรือง”
Buterin ชี้ว่า แม้ระบบ AI ที่มีประโยชน์ เช่น แชตบอทที่ช่วยในงานต่าง ๆ นั้นมีคุณค่า แต่การปล่อยให้ AI ทำงานอย่างอิสระเป็นเวลานานโดยไม่มีการควบคุม อาจนำไปสู่ปัญหาใหญ่ ซึ่งเขาเสนอแนวทางแก้ไขด้วยการพัฒนาเทคโนโลยีที่เรียกว่า “Decentralized and Democratic Differential Defensive Acceleration” หรือ d/Acc
โดยในบล็อกโพสต์ของเขา Buterin ได้อธิบายว่าแนวคิดนี้มุ่งเน้นการสร้างระบบป้องกันแบบกระจายศูนย์ ที่ช่วยให้บุคคลและชุมชนสามารถปกป้องตัวเองจากความเสี่ยงของ AI ได้โดยไม่ต้องพึ่งพาการควบคุมจากองค์กรใหญ่หรือรัฐบาล
“ไอเดียหนึ่งที่เข้ากับ d/Acc ได้ดีคือการกำหนดความรับผิดชอบให้กับเจ้าของหรือผู้ดำเนินการอุปกรณ์ใด ๆ ที่ AI สามารถแฮกและใช้ก่อเหตุอันตรายได้ วิธีนี้จะสร้างแรงจูงใจอย่างกว้างขวางให้ทุกคนทำงานอย่างหนัก เพื่อสร้างโครงสร้างพื้นฐานของโลก (โดยเฉพาะด้านคอมพิวเตอร์และชีวภาพ) ให้ปลอดภัยที่สุด”
การกระจายศูนย์เชิงป้องกันนี้ จะสามารถช่วยตรวจสอบและตอบโต้การกระทำของ AI ที่อันตรายได้อย่างมีประสิทธิภาพ และยังสร้างความสมดุลในด้านพลังทางเทคโนโลยี โดยให้ผู้คนมีอำนาจในการป้องกันตนเองจากผลกระทบของการพัฒนา AI ที่ไม่คาดคิด
เขาได้ปิดท้ายว่า การพัฒนาระบบป้องกันแบบ Decentralized จะช่วยสร้างโลกที่ปลอดภัยและสมดุลมากขึ้นในยุคที่ AI มีความก้าวหน้าอย่างรวดเร็ว พร้อมสนับสนุนความโปร่งใสและการร่วมมือในวงการเทคโนโลยี
ที่มา: Cryptoslate