<?php wp_title('|', true, 'right'); ?>

CEO ของ OpenAI กล่าวว่า “AI ในระดับที่เหนือกว่ามนุษย์” อาจมาถึงในอีก 10 ปีต่อจากนี้

ติดตามสยามบล็อกเชนบนSiam Blockchain

Sam Altman CEO  ของ OpenAI รวมถึง Greg Brockman หัวหน้าเจ้าหน้าที่เทคโนโลยีและ Ilya Sutskever นักวิทยาศาสตร์ชั้นนำ เพิ่งเขียนบล็อกโพสต์ที่ให้รายละเอียดเกี่ยวกับจุดยืนของ OpenAI ในการพัฒนาและการกำกับดูแล

อาจไม่ใช่เรื่องที่น่าแปลกใจอะไรมากนัก สำหรับบริษัทที่เป็นผู้นำในอุตสาหกรรมเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่เชื่อว่า การไม่พัฒนา AI จะเป็นการเสี่ยงมากกว่าที่จะหยุดพัฒนา

“จากภาพที่เราเห็นในตอนนี้ เป็นไปได้ว่าภายใน 10 ปีข้างหน้า ระบบปัญญาของ AI จะสูงเกินระดับของผู้เชี่ยวชาญ และจะดำเนินกิจกรรมที่มีประสิทธิผลมากพอๆ กับหนึ่งในองค์กรที่ใหญ่ที่สุดในปัจจุบัน”

ศักยภาพของ AI จะสามารถเติบโตได้ในระดับเดียวมนุษย์ (หรือที่เรียกกันว่า “AGI”) ฃตามที่ OpenAI พยายามเตือนว่า มันอยู่ในระดับที่เกินขีดความสามารถของมนุษย์ในระดับผู้เชี่ยวชาญ อย่างไรก็ตามปพรเด็นยังคงเป็นที่ถกเถียงกันในวงกว้าง ซึ่งผู้เชี่ยวชาญหลายคนมองว่า ยังอาจจะต้องใช้เวลาอีกนานกว่าที่ AI จะสามารถพัฒนามาเทียบเทียบเท่ากับมนุษย์

ดูเหมือนว่าสามผู้นำของ OpenAI อย่าง Altman, Brockman และ Sutskever นั้นจะยอมรับแนวทางการพัฒนา AI อย่างระมัดระวัง แต่ก็ไม่เห็นด้วยที่จะสนับสนุนให้หยุดการพัฒนาไปโดยสิ้นเชิง

ข้อความจากบล็อกโพสต์ดังกล่าวชี้ให้เห็นถึง การกำกับดูแลของรัฐบาลที่เพิ่มมากขึ้น การมีส่วนร่วมของประชาชนในกระบวนการตัดสินใจ และการทำงานร่วมกันอย่างแน่นแฟ้นยิ่งขึ้นระหว่างนักพัฒนาซอฟต์แวร์และบริษัทต่างๆ ซึ่งประเด็นเหล่านี้สะท้อนถึงคำตอบที่ Altman ให้ไว้ในการตอบคำถามจากสมาชิกคณะอนุกรรมการวุฒิสภาในการพิจารณาของรัฐสภาเมื่อเร็วๆ นี้ว่า : 

“การหยุดพัฒนาอาจทำให้เกิดความเสี่ยงได้” พร้อมกับโพสต์ทิ้งท้ายด้วยว่า : “เราควรต้องทำให้มันถูกต้อง”

ซึ่งนี่เป็นเรื่องชัดเจนมากว่า ผู้นำทั้ง 3 คนจาก OpenAI นั้น มองว่าการหยุดพัฒนา AI อาจเผชิญหน้ากับหน่วยเฝ้าระวังมากขึ้นในทั่วโลก แต่นั่นก็ไม่ได้การันตีว่าพวกเขาจะทำสำเร็จ

ทั้งนี้เพื่อการปกป้องมนุษยชาติจาก AI ที่ชาญฉลาด OpenAI จะต้องทำงานต่อไปเพื่อสร้าง AI ที่ฉลาดกว่าเดิม

ที่มา : cointelegraph