นักฟิสิกส์ชื่อดังและหนึ่งในนักคิดที่ยิ่งใหญ่ที่สุดในยุคของเราอย่าง Stephen Hawking ถือเป็นบุคคลที่ทรงอิทธิพลในวงการฟิสิกส์เชิงทฤษฎีเป็นอย่างมาก โดยเขาเป็นที่รู้จักจากผลงานด้านจักรวาลวิทยาและฟิสิกส์ดาราศาสตร์ แต่หลายคนอาจจะยังไม่เคยรู้ว่าชายคนนี้คือ ชายผู้ที่หลายคนต่างขนานให้ว่าฉลาดที่สุดในโลก และเมื่อครั้งที่เขายังมีชีวิตอยู่ เขายังเคยพูดเตือนเกี่ยวกับ “ภัยอันตรายที่อาจเกิดขึ้นจากเทคโนโลยีปัญญาประดิษฐ์ (AI)” เอาไว้ด้วย
“Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last.“
“ความสำเร็จในการสร้างเทคโนโลยี AI จะเป็นเหตุการณ์ที่ยิ่งใหญ่ที่สุดในประวัติศาสตร์ของมวลมนุษยชาติ น่าเสียดายที่มันอาจเป็นครั้งสุดท้าย”
Stephen Hawking กล่าวประโยคนี้ไว้ในระหว่างการให้สัมภาษณ์กับสื่อข่าว BBC News เมื่อวันที่ 2 มกราคม ค.ศ. 2015 โดยในการสัมภาษณ์ครั้งนั้น เขาได้กล่าวคำเตือนเกี่ยวกับ AI ไว้หลายประเด็นด้วยกัน
คำเตือนเกี่ยวกับ AI ของ Hawking ในครั้งนั้น นำไปสู่การอภิปรายและการโต้วาทีเกี่ยวกับความรับผิดชอบในการพัฒนาและการใช้เทคโนโลยี AI ในวงกว้าง ดังนั้นในวันนี้ทางสยามบล็อกเชนจึงจะพาทุกคนมาย้อนรอยไปพร้อมกันว่าชายผู้ฉลาดที่สุดในโลกคนนี้มองเห็นอะไรในอนาคตของ AI
ภัยอันตรายจาก AI ที่ควบคุมไม่ได้: Hawking กังวลเกี่ยวกับ “AI ที่ไม่มีการควบคุม” โดยเน้นย้ำถึงความจำเป็นด้านการระมัดระวังและการพิจารณาด้านจริยธรรม โดยเขากังวลว่า หากเราพัฒนา AI ที่ชาญฉลาดมาก ๆ ขึ้นมา แต่ระบบของมันกลับไม่มีกฎระเบียบและการป้องกันที่เหมาะสม พวกมันอาจเหนือกว่าสติปัญญาของมนุษย์ จนมนุษย์อาจไม่สามารถควบคุมมันได้ ซึ่งสถานการณ์นี้ได้ทำให้เกิดประเด็นด้านจริยธรรมว่าการที่ AI มีอำนาจตัดสินใจด้วยตนเอง อาจนำไปสู่ผลลัพธ์ที่ไม่คาดคิดในอนาคต
ภัยคุกคามต่อการจ้างงาน: Hawking เน้นย้ำถึงศักยภาพของระบบอัตโนมัติที่จะมาแทนที่แรงงานมนุษย์ ซึ่งจะนำไปสู่การสูญเสียอัตราการจ้างงานในอุตสาหกรรมต่าง ๆ ในขณะที่ระบบอัตโนมัติและความก้าวหน้าทางเทคโนโลยีเข้ามาสร้างโอกาสในการทำงานใหม่ ๆ โดยในอดีต Hawking เตือนว่า AI จะได้รับการพัฒนาอย่างรวดเร็วจนอาจแซงหน้าการสร้างอาชีพทางเลือก ซึ่งจะส่งผลให้เกิดการหยุดชะงักทางสังคมและความเหลื่อมล้ำทางเศรษฐกิจ
ข้อพิจารณาด้านจริยธรรม: Hawking กล่าวถึงความสำคัญของการรวมหลักจริยธรรมเข้ากับการพัฒนา AI โดยเขาสนับสนุนความโปร่งใส เพื่อให้แน่ใจว่ากระบวนการตัดสินใจของ AI จะเป็นที่เข้าใจได้และมีความรับผิดชอบ นอกจากนี้ เขายังเตือนถึงการใช้ AI ในทางที่ผิด เช่น การใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายอย่างสงคราม อีกทั้ง Hawking ยังเน้นย้ำถึงความจำเป็นในการหารือด้านกฎระเบียบอย่างต่อเนื่องเพื่อป้องกันการใช้เทคโนโลยีที่ทรงพลังนี้ในทางที่ผิด
สร้างสมดุลระหว่างผลประโยชน์กับความเสี่ยง: แม้เขาจะกังวล แต่ Hawking ยังคงเล็งเห็นถึงผลประโยชน์อันมหาศาลที่ AI จะนำมาให้กับสังคม โดยเขาเชื่อว่า AI จะสามารถปฏิวัติการวิจัยทางวิทยาศาสตร์ได้สำเร็จ ซึ่งจะช่วยให้มนุษย์สามารถเข้าใจเกี่ยวกับปรากฏการณ์ที่ซับซ้อนได้มากขึ้น และ AI ก็อาจสามารถช่วยในการแก้ปัญหาใหญ่ ๆ ในระดับโลกได้ อย่างไรก็ตาม Hawking ยังคงยืนยันชัดเจนว่า “การพัฒนา AI ที่คงคุณค่าความเป็นมนุษย์” ถือเป็นสิ่งที่มีความสำคัญ เพื่อที่ AI จะได้เป็นเครื่องมือที่รับใช้มนุษยชาติมากกว่าที่จะกลายเป็นภัยคุกคาม
บทสรุป
Stephen Hawking เตือนเกี่ยวกับอันตรายที่อาจเกิดขึ้นจาก AI ที่ไม่มีการควบคุม และเน้นย้ำถึงความจำเป็นในด้านการพัฒนาเทคโนโลยีนี้อย่างมีความรับผิดชอบและมีจริยธรรม โดยในขณะที่ AI ถือเป็นเทคโนโลยีที่ทรงพลัง มนุษย์จึงจำเป็นที่จะต้องสร้างสมดุลระหว่างผลประโยชน์กับความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีนี้
นอกจากนี้ Hawking ยังกระตุ้นให้เกิดการอภิปรายเกี่ยวกับ AI ในกลุ่มผู้กำหนดนโยบาย นักวิจัย และผู้นำในอุตสาหกรรม โดยแนะนำให้ติดตามการพัฒนาของ AI ในลักษณะที่ให้ความสำคัญกับสวัสดิภาพของมนุษย์ และป้องกันผลที่ตามมาโดยไม่คาดคิด ทั้งนี้ในภาพรวมนั้น Hawking มองว่าเราสามารถควบคุมพลังของ AI เพื่อสังคมที่ดีขึ้น ในขณะที่ลดอันตรายที่อาจเกิดขึ้นได้
Stephen Hawking เสียชีวิตลงเมื่อวันที่ 14 มีนาคม 2018 เนื่องจากเส้นโลหิตตีบ ซึ่งเป็นภาวะแทรกซ้อนที่เกิดจากโรค Lou Gehrig ALS ซึ่งเป็นโรคเกี่ยวกับความเสื่อมของระบบประสาทที่ส่งผลต่อเซลล์ประสาทที่มีหน้าที่ควบคุมการเคลื่อนไหวของกล้ามเนื้อ โดยเมื่อเวลาผ่านไป อาการดังกล่าวทำให้กล้ามเนื้อของ Hawking อ่อนแรงลงเรื่อย ๆ จนนำไปสู่การเป็นอัมพาตในที่สุด และถึงแม้จะมีข้อจำกัดทางร่างกาย แต่ Hawking ก็ยังคงทำงานด้านวิทยาศาสตร์ต่อไป และมีส่วนสำคัญในด้านฟิสิกส์เชิงทฤษฎีตลอดช่วงชีวิตของเขา
บทความนี้จัดทำขึ้นด้วยการใช้ข้อมูลจาก ChatGPT ซึ่งเป็น Generative AI ที่ได้รับการฝึกฝนจากทีมพัฒนาของบริษัท OpenAI คริปโทเคอร์เรนซีและโทเคนดิจิทัลมีความเสี่ยงสูง ท่านอาจสูญเสียเงินลงทุนได้ทั้งจํานวน โปรดศึกษาและลงทุนให้เหมาะสมกับระดับความเสี่ยงที่ยอมรับได้