bitkub-banner

OpenAI ผลิตอาวุธ AI สังหารไม่ต้องขออนุญาตมนุษย์! ลือ เป็นดีลลับกับ Pentagon ?

พร้อมเล่น 0:00 / 0:00
สรุปข่าว
  • Caitlin Kalinowski หัวหน้าฝ่าย Hardware and Robotics ของ OpenAI ประกาศลาออกเมื่อวันที่ 7 มีนาคม 2026 เพื่อประท้วงข้อตกลงระหว่าง OpenAI กับกระทรวงกลาโหมสหรัฐฯ ที่เธอมองว่าเกิดขึ้นเร็วเกินไปโดยไม่มีมาตรการป้องกันที่ชัดเจน
  • ข้อตกลงดังกล่าวอนุญาตให้ OpenAI นำระบบ AI ขั้นสูงไปใช้ในเครือข่ายลับของกระทรวงกลาโหม โดยมีความกังวลว่าอาจนำไปสู่การสอดแนมพลเมืองอเมริกันและการพัฒนาอาวุธอัตโนมัติที่ไม่ต้องมีมนุษย์อนุมัติ
  • เหตุการณ์นี้สะท้อนความตึงเครียดภายใน OpenAI ซึ่งเคยถูกก่อตั้งในปี 2015 เป็นองค์กร non-profit เพื่อประโยชน์ของมนุษยชาติ แต่ภายหลังกลับหันมาให้ความสำคัญกับการทำกำไรมากขึ้น

แนวโน้มผลกระทบต่อราคา: Bearish

การลาออกของผู้บริหารระดับสูงจาก OpenAI ด้วยเหตุผลทางจริยธรรมสะท้อนความขัดแย้งภายในบริษัทที่อาจส่งผลกระทบต่อความน่าเชื่อถือของอุตสาหกรรม AI โดยรวม เนื่องจาก OpenAI เป็นหนึ่งในผู้นำด้าน AI ระดับโลก ความไม่แน่นอนนี้อาจทำให้นักลงทุนในโทเค็น AI อย่าง TAO, RNDR, ICP และ NEAR มองภาพรวมของอุตสาหกรรมในแง่ลบ โดยเฉพาะอย่างยิ่งถ้าหากมีการควบคุมหรือกฎระเบียบที่เข้มงวดขึ้นตามมา อย่างไรก็ตาม หากโครงการ AI แบบ decentralized สามารถนำเสนอทางเลือกที่โปร่งใสและมีจริยธรรมมากกว่า อาจเป็นโอกาสในการเติบโตของโทเค็นเหล่านี้ในระยะยาว

Caitlin Kalinowski หัวหน้าฝ่าย Hardware and Robotics ของ OpenAI ได้ประกาศลาออกจากตำแหน่งเมื่อวันที่ 7 มีนาคม 2026 เพื่อประท้วงข้อตกลงที่บริษัททำกับกระทรวงกลาโหมสหรัฐฯ จากข้อมูลของ NPR และ Fortune รายงานเมื่อวันที่ 7-8 มีนาคม 2026 Kalinowski ระบุว่าเธอตัดสินใจลาออกเพราะข้อตกลงดังกล่าวถูกประกาศอย่างเร่งรีบโดยไม่มีการกำหนดมาตรการป้องกันที่ชัดเจนก่อน โดยเฉพาะในประเด็นสำคัญ 2 ข้อ ได้แก่ การสอดแนมพลเมืองอเมริกันโดยไม่มีการตรวจสอบจากศาล และการพัฒนาอาวุธอัตโนมัติที่สามารถทำงานได้โดยไม่ต้องมีมนุษย์อนุมัติ ซึ่งเธอมองว่าทั้งสองเรื่องนี้ควรได้รับการพิจารณาอย่างละเอียดรอบคอบมากกว่านี้

ข้อตกลงระหว่าง Open AI กับ Pentagon ที่จุดชนวน

ข้อตกลงระหว่าง OpenAI และกระทรวงกลาโหมสหรัฐฯ ถูกประกาศเมื่อปลายเดือนกุมภาพันธ์ 2026 หลังจากที่การเจรจาระหว่างกระทรวงกลาโหมกับ Anthropic ซึ่งเป็นบริษัท AI คู่แข่งล้มเหลว เนื่องจาก Anthropic ไม่ยอมลดมาตรการป้องกันเรื่องการสอดแนมและอาวุธอัตโนมัติ นอกจากนี้ รัฐบาลสหรัฐฯ ยังติดป้ายให้ Anthropic เป็น supply chain risk หรือความเสี่ยงต่อห่วงโซ่อุปทาน หลังจากบริษัทปฏิเสธที่จะผ่อนปรนข้อจำกัดดังกล่าว

ข้อตกลงใหม่ระหว่าง OpenAI กับกระทรวงกลาโหมอนุญาตให้ระบบ AI ขั้นสูงของ OpenAI ถูกนำไปใช้งานในเครือข่าย cloud ลับของกระทรวงกลาโหม ในขณะเดียวกัน OpenAI ระบุว่าบริษัทมี red lines หรือเส้นแดงที่ห้ามข้ามคือ ไม่อนุญาตให้มีการสอดแนมภายในประเทศและไม่อนุญาตให้พัฒนาอาวุธอัตโนมัติ อย่างไรก็ตาม Kalinowski มองว่ามาตรการป้องกันเหล่านี้ไม่ได้ถูกกำหนดอย่างชัดเจนก่อนที่จะประกาศข้อตกลง ทำให้เธอเกิดความกังวลว่าบริษัทอาจละเลยหลักการจริยธรรมเพื่อแลกกับผลประโยชน์ทางธุรกิจ

ที่น่าสนใจคือ CEO Sam Altman ของ OpenAI ออกมาแถลงภายหลังว่าบริษัทจะแก้ไขข้อตกลงเพื่อให้แน่ใจว่าระบบ AI จะไม่ถูกนำไปใช้สอดแนมพลเมืองอเมริกัน และจะมีการใส่มาตรการป้องกันทางเทคนิคเพื่อให้แน่ใจว่าโมเดล AI จะทำงานตามที่ควรจะเป็น

อาวุธ AI ที่ไม่ต้องรออนุมัติจากมนุษย์คืออะไร

อาวุธอัตโนมัติที่ไม่ต้องมีมนุษย์อนุมัติ หรือ lethal autonomy without human authorization หมายถึงระบบอาวุธที่ใช้ปัญญาประดิษฐ์ในการตัดสินใจโจมตีเป้าหมายด้วยตัวเอง โดยไม่ต้องรอให้มนุษย์กดปุ่มอนุมัติ ระบบแบบนี้สามารถสแกนหาเป้าหมาย วิเคราะห์สถานการณ์ และทำการโจมตีได้เองโดยอัตโนมัติ ซึ่งแตกต่างจากอาวุธที่ควบคุมด้วยระบบอัตโนมัติแบบเดิม ๆ ที่ยังคงต้องให้มนุษย์เป็นผู้ตัดสินใจขั้นสุดท้าย

แล้วปัญหาของอาวุธ AI นี้คืออะไร?

ความกังวลหลักของระบบอาวุธแบบนี้คือ มันอาจทำให้เกิดความผิดพลาดร้ายแรงได้ เช่น การโจมตีพลเรือนหรือเป้าหมายที่ผิด เพราะ AI อาจตีความสถานการณ์ผิดหรือมีข้อมูลไม่ครบถ้วน นอกจากนี้ ยังมีคำถามทางจริยธรรมว่า ควรปล่อยให้เครื่องจักรเป็นผู้ตัดสินใจเรื่องชีวิตความตายของมนุษย์หรือไม่ ซึ่งเป็นประเด็นที่นักกิจกรรมด้านสิทธิมนุษยชนและนักวิชาการหลายคนคัดค้านอย่างแข็งขว้าง

จากรายงานของ TechRadar และ Engadget Kalinowski ได้โพสต์บน X ว่า AI มีบทบาทสำคัญในความมั่นคงของชาติ แต่การสอดแนมพลเรือนอเมริกันโดยไม่มีการตรวจสอบจากศาลและการให้อาวุธอัตโนมัติทำงานโดยไม่ต้องขออนุมัติจากมนุษย์เป็นเส้นแดงที่ควรได้รับการพิจารณามากกว่านี้ เธอเน้นย้ำว่าการลาออกของเธอเป็นเรื่องของหลักการ ไม่ใช่เรื่องส่วนตัวกับใคร และเธอยังคงเคารพ Sam Altman และทีมงาน OpenAI อย่างสูง

ประวัติการเปลี่ยนแปลงของ OpenAI จาก Non-Profit สู่ For-Profit

การลาออกของ Kalinowski สะท้อนความตึงเครียดที่สะสมมายาวนานภายใน OpenAI ซึ่งเกิดจากการเปลี่ยนแปลงทิศทางของบริษัทจากองค์กร non-profit ที่ตั้งใจพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ ไปสู่บริษัทที่มุ่งเน้นการทำกำไร OpenAI ถูกก่อตั้งในเดือนธันวาคม 2015 โดย Sam Altman, Elon Musk และคนอื่น ๆ ในฐานะองค์กร non-profit ที่มีเป้าหมายพัฒนา AI ที่เป็นประโยชน์ต่อมนุษยชาติโดยไม่ถูกจำกัดด้วยความจำเป็นในการสร้างผลตอบแทนทางการเงิน

อย่างไรก็ตาม ในปี 2018 Elon Musk ลาออกจากคณะกรรมการหลังจากลงทุนไป 50 ล้านดอลลาร์ ประมาณ 1,600 ล้านบาท ทำให้ OpenAI ขาดแหล่งเงินทุนสำคัญ ในขณะเดียวกัน ผู้นำของ OpenAI ตระหนักว่าการพัฒนาและดูแลรักษาโมเดล AI ขั้นสูงต้องใช้พลังคอมพิวติ้งจำนวนมหาศาล ซึ่งมีค่าใช้จ่ายสูงมาก นี่จึงนำไปสู่การจัดตั้ง OpenAI Global LLC ในปี 2019 ซึ่งเป็นหน่วยงาน for-profit ที่มีการจำกัดผลกำไรสูงสุดที่นักลงทุนจะได้รับไว้ที่ 100 เท่าของเงินลงทุน

หลังจากนั้น Microsoft ได้ลงทุนใน OpenAI ถึง 10,000 ล้านดอลลาร์ ประมาณ 320,000 ล้านบาท ทำให้ OpenAI มีเงินทุนมหาศาลในการพัฒนาเทคโนโลยี แต่ก็ทำให้เกิดความตึงเครียดระหว่างคณะกรรมการ non-profit ที่ยังคงควบคุม OpenAI อยู่กับทิศทางที่มุ่งเน้นการทำกำไรมากขึ้น ความขัดแย้งนี้ปะทุขึ้นในเดือนพฤศจิกายน 2023 เมื่อคณะกรรมการไล่ Sam Altman ออกจากตำแหน่ง CEO โดยระบุว่าเขา ไม่ซื่อสัตย์ในการสื่อสารกับคณะกรรมการ

ที่น่าสนใจคือ พนักงาน OpenAI ถึง 702 คนจาก 770 คนขู่ว่าจะลาออกหาก Altman ไม่กลับมา ซึ่งบังคับให้คณะกรรมการต้องเปลี่ยนใจและให้ Altman กลับมาเป็น CEO อีกครั้งภายใน 3 วัน ตั้งแต่นั้นมา คณะกรรมการ non-profit ถูกเปลี่ยนใหม่เกือบหมด และอยู่ภายใต้การควบคุมของ Altman มากขึ้น ในเดือนพฤษภาคม 2025 OpenAI ประกาศเปลี่ยนแปลงโครงสร้างเป็น public benefit corporation หรือ PBC ซึ่งเป็นบริษัทที่ต้องคำนึงถึงทั้งผลประโยชน์ของผู้ถือหุ้นและภารกิจทางสังคม แต่ยังคงอยู่ภายใต้การควบคุมของคณะกรรมการ non-profit

ประกอบกับ Elon Musk ได้ฟ้อง OpenAI และ Altman เมื่อเดือนกุมภาพันธ์ 2024 โดยกล่าวหาว่าพวกเขาทรยศต่อหลักการตั้งต้นของบริษัทที่ต้องการพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ โดย Musk มองว่า OpenAI ได้หันมามุ่งเน้นการทำกำไรมากเกินไป แม้ว่า OpenAI จะปฏิเสธคำกล่าวหานี้ แต่การที่ผู้บริหารระดับสูงอย่าง Kalinowski ลาออกด้วยเหตุผลทางจริยธรรมก็ยิ่งสะท้อนให้เห็นความขัดแย้งภายในบริษัทที่ยังคงดำเนินต่อไป

ผลกระทบต่ออุตสาหกรรม AI และเหรียญที่เกี่ยวข้อง

เหตุการณ์นี้สร้างคำถามสำคัญเกี่ยวกับอนาคตของอุตสาหกรรม AI และผลกระทบต่อคริปโตที่เกี่ยวข้องกับ AI ในระยะสั้น ความไม่แน่นอนเกี่ยวกับทิศทางของ OpenAI อาจส่งผลกระทบเชิงลบต่อความเชื่อมั่นในอุตสาหกรรม AI โดยรวม เพราะ OpenAI เป็นหนึ่งในบริษัทชั้นนำที่กำลังกำหนดทิศทางของเทคโนโลยีนี้ หากมีการควบคุมหรือข้อจำกัดที่เข้มงวดขึ้นในการใช้ AI เพื่อวัตถุประสงค์ทางทหาร อาจส่งผลให้นักลงทุนในเหรียญ AI ต้องประเมินความเสี่ยงใหม่

ในทางกลับกัน สถานการณ์นี้อาจเปิดโอกาสให้โครงการ AI แบบ decentralized ที่เน้นความโปร่งใสและมีจริยธรรม เช่น Bittensor ที่ใช้เหรียญ TAO, Internet Computer ที่ใช้ ICP, Render Network ที่ใช้ RNDR และ NEAR Protocol มีโอกาสเติบโตมากขึ้น เนื่องจากโครงการเหล่านี้เน้นการกระจายอำนาจและไม่ถูกควบคุมโดยบริษัทใดบริษัทหนึ่ง ซึ่งอาจดึงดูดนักลงทุนที่กังวลเรื่องการใช้ AI ในทางที่ผิด

จากข้อมูลของ CoinDesk เมื่อวันที่ 10 มีนาคม 2026 เหรียญ AI หลายตัวปรับตัวขึ้นหลังจากมีรายงานว่า Nvidia กำลังพัฒนาแพลตฟอร์มโอเพนซอร์สสำหรับ AI agents ชื่อ NemoClaw โดยมูลค่าตลาดของหมวด AI tokens เพิ่มขึ้น 4.8 เปอร์เซ็นต์ไปที่ประมาณ 14,170 ล้านดอลลาร์ ประมาณ 453,000 ล้านบาท ขณะที่ดัชนี CoinDesk 20 ซึ่งเป็นตัวชี้วัดตลาดคริปโตโดยรวมขึ้นเพียง 2.86 เปอร์เซ็นต์ ซึ่งแสดงให้เห็นว่านักลงทุนยังคงให้ความสนใจกับเหรียญ AI อย่างต่อเนื่อง

ที่สำคัญคือ แนวโน้มการผสานรวมระหว่าง AI และ blockchain กำลังเติบโตอย่างรวดเร็ว โดยโครงการต่าง ๆ กำลังพัฒนาโครงสร้างพื้นฐานที่ช่วยให้ AI และ blockchain ทำงานร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น ตัวอย่างเช่น Bittensor สร้างเครือข่าย machine learning แบบกระจายศูนย์ที่ให้รางวัลเป็นเหรียญ TAO สำหรับโมเดล AI ที่มีส่วนร่วมในการเรียนรู้ ขณะที่ Render Network ใช้ blockchain ในการกระจาย GPU power สำหรับงาน rendering และ AI

อย่างไรก็ตาม นักวิเคราะห์บางส่วนเตือนว่าเหรียญ AI หลายตัวยังมีข้อจำกัดทางเทคนิค เช่น การพึ่งพา off-chain computation ความสามารถที่จำกัดในการประมวลผล on-chain และปัญหาด้าน scalability นอกจากนี้ หลายโครงการยังดูเหมือนเพียงแค่นำโมเดลบริการ AI แบบรวมศูนย์มาเพิ่มระบบชำระเงินและการกำกับดูแลด้วยเหรียญ โดยไม่ได้นำเสนอนวัตกรรมใหม่ ๆ ที่แท้จริง

ความเห็นของผู้เขียน

การลาออกของผู้บริหารระดับสูงจาก OpenAI ด้วยเหตุผลทางจริยธรรมเป็นสัญญาณเตือนสำคัญสำหรับทั้งอุตสาหกรรม AI และคริปโต เพราะมันสะท้อนให้เห็นว่าแม้แต่บริษัทที่เคยประกาศว่าจะพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ ก็ยังสามารถถูกดึงไปในทิศทางที่มุ่งเน้นผลกำไรจนลืมหลักการเดิมได้ สำหรับนักลงทุนในโทเค็น AI ควรติดตามพัฒนาการของเรื่องนี้อย่างใกล้ชิด เพราะถ้าเกิดการควบคุมที่เข้มงวดขึ้น อาจส่งผลกระทบต่อโครงการ AI ทั้งแบบรวมศูนย์และกระจายศูนย์ ในขณะเดียวกัน นี่อาจเป็นโอกาสให้โครงการ AI แบบ decentralized ที่เน้นความโปร่งใสและมีจริยธรรมแสดงให้เห็นว่าพวกเขาเป็นทางเลือกที่ดีกว่า ผู้เขียนมองว่าในระยะยาว โครงการที่สามารถสร้างสมดุลระหว่างนวัตกรรม ผลกำไร และความรับผิดชอบทางสังคมจะเป็นผู้ชนะในท้ายที่สุด

อย่างไรก็ตาม นี่เป็นเพียงความเห็นส่วนตัวของผู้เขียนเท่านั้น สถานการณ์ภายในของทั้งบริษัทอย่าง Open AI นั้นไม่มีใครรู้ สิ่งที่นักลงทุนทำได้คือติดตามข่าวสารอย่างใกล้ชิด และอย่าลืมที่จะเลือกเสพสื่อหรือข้อมูลที่ถูกต้องจากแหล่งที่น่าเชื่อถือเท่านั้น

ที่มา: NPR, Fortune, TechCrunch, TechRadar