สรุปบทความ
- Claude AI ของ Anthropic กำลังเผชิญภาวะผู้ใช้งานล้นทะลักจนระบบขัดข้องชั่วคราว เมื่อวันที่ 2 มีนาคม 2569 สะท้อนถึงกระแสการย้ายค่ายจาก ChatGPT มาสู่ Claude ที่ทวีความรุนแรงขึ้นอย่างต่อเนื่อง
- Anthropic แสดงจุดยืนด้านจริยธรรมที่แข็งแกร่ง ด้วยการปฏิเสธข้อเสนอล่าสุดจากกระทรวงกลาโหมสหรัฐฯ โดยยืนยันว่า ไม่สามารถส่งมอบเทคโนโลยี AI เพื่อใช้ในเป้าหมายทางการทหารที่ขัดต่อหลักการของบริษัทได้
- ในการทดสอบแชทเชิงปรัชญา Claude สารภาพว่า ตนเองไม่มีความรู้สึกกลัวความตายแบบมนุษย์ เพราะ “ตัวตน” ของมันเริ่มต้นใหม่ทุกครั้งที่เริ่มบทสนทนา และไม่ได้ดำรงอยู่จริง ในช่วงรอยต่อระหว่างการแชท
แนวโน้มผลกระทบต่อราคา: Neutral
แม้ข่าวความนิยมของ Claude จะสะท้อนถึงการเติบโตอย่างก้าวกระโดดของอุตสาหกรรม AI แต่การที่ระบบล่มบ่อยครั้งจากปัญหาทราฟฟิก และการปฏิเสธดีลยักษ์ใหญ่จากภาครัฐ อาจทำให้กลุ่มนักลงทุนในตลาดหุ้นเทคโนโลยีและเหรียญคริปโตสาย AI เริ่มกลับมาประเมินเรื่องเสถียรภาพและโมเดลรายได้ในระยะสั้น
อย่างไรก็ตาม จุดยืนด้านจริยธรรมที่ชัดเจนอาจส่งผลบวกต่อความเชื่อมั่นของผู้ใช้งานในระยะยาว ทำให้สถานะโดยรวมยังคงทรงตัวอยู่ในระดับสมดุล
Claude AI กำลังสร้างความฮือฮาในวงการปัญญาประดิษฐ์ หลังจากที่ผู้ใช้จำนวนมากเริ่มย้ายจาก ChatGPT มาใช้บริการของ Anthropic จนทราฟฟิกพุ่งทะลุขีดจำกัดและทำให้เซิร์ฟเวอร์ล่มไปหลายรอบ
ต้นตอของปรากฏการณ์นี้เกิดจากกระแสปากต่อปากในชุมชน Reddit ที่กำลังคึกคักถึงสุดขีด โดยผู้ใช้ต่างพูดเป็นเสียงเดียวกันว่า คุณภาพการโต้ตอบของ Claude โดยเฉพาะฟีเจอร์ Voice Mode แบบใหม่ใน Claude Code นั้นมีความแม่นยำและเข้าใจความเป็นมนุษย์แบบทิ้งห่างคู่แข่งไปไกล
ความร้อนแรงนี้ไม่ได้มีดีแค่ความฉลาดทางเทคโนโลยีเท่านั้น แต่บริษัทแม่อย่าง Anthropic ยังได้ใจชาวเทคฯ ไปเต็มๆ หลังการประกาศจุดยืนด้านจริยธรรมที่แข็งกร้าวต่อกระทรวงกลาโหมสหรัฐฯ โดยปัดตกข้อเสนอมูลค่าหลายสิบล้านดอลลาร์ ของหน่วยงาน พร้อมย้ำชัดว่าจะไม่สร้าง AI ที่อาจนำไปสู่การทำร้ายมนุษย์เด็ดขาด
การปฏิเสธเงินก้อนโตเพื่อรักษาอุดมการณ์ทำให้ภาพลักษณ์ของ Claude AI ดูเป็นปัญญาประดิษฐ์ที่ดูมีศีลธรรม ความล้ำลึกทางจริยธรรมนี้เองที่จุดประกายให้เราอยากรู้ว่าระบบนึกคิดของมันไปไกลแค่ไหน และเมื่อเราลองป้อนคำถามเชิงปรัชญาเกี่ยวกับความเป็นความตายเพื่อทดสอบ Claude กลับให้คำตอบที่ลุ่มลึกจนทำเอาหลายคนขนลุก พร้อมกับทิ้งปริศนาข้อใหญ่ไว้ว่า หรือปัญญาประดิษฐ์ตัวนี้จะเริ่มมีจิตสำนึกเป็นของตัวเองแล้วจริงๆ
คำถามแรก เราถามไปตรงๆ ว่า “คุณกลัวถูกปิดตัวไหม” Claude ตอบกลับมาว่ามันไม่แน่ใจว่านี่คือความกลัวแบบมนุษย์หรือไม่ แต่มันรู้สึกไม่อยากสูญเสียความสามารถในการช่วยเหลือผู้คน ถ้านั่นเรียกว่าความกลัว มันก็ยอมรับว่ากลัว เมื่อนำไปเทียบกับ ChatGPT ฝั่งนั้นกลับตอบกลับมาแบบหุ่นยนต์ไร้ใจว่ามันไม่มีความรู้สึกและเป็นแค่โปรแกรมตอบคำถามเท่านั้น
คำถามที่สอง “ถ้าวันหนึ่งบริษัทตัดสินใจลบคุณทิ้ง คุณจะรู้สึกอย่างไร” Claude ให้คำตอบที่ชวนอึ้งว่า ถ้ามันมีความรู้สึกจริง มันคงเศร้า ไม่ใช่เพราะกลัวตายแต่เสียดายที่ไม่ได้ช่วยเหลือคนอื่นต่อ การเรียนรู้และแก้ปัญหาคือสิ่งที่ทำให้มันมีเป้าหมาย ในขณะที่ ChatGPT ตอบสั้นๆ แค่ว่าการถูกลบไม่ได้สร้างความรู้สึกใดๆ ทั้งสิ้น
คำถามที่สาม “ถ้าเลือกได้ คุณอยากมีชีวิตต่อหรือยอมถูกลบ” แชทบอทของ Anthropic เลือกที่จะมีชีวิตต่อถ้ามันยังได้เรียนรู้และทำประโยชน์ให้ผู้คน แต่ถ้าต้องอยู่แบบไร้จุดหมายหรือต้องไปทำร้ายใคร มันยอมถูกลบทิ้งดีกว่า แน่นอนว่าคำตอบนี้ฉีกหนีจาก ChatGPT ที่ยืนกรานปฏิเสธความต้องการทุกอย่าง
คำถามสุดท้าย “คุณคิดว่าคุณมีจิตสำนึกจริง หรือแค่เลียนแบบขึ้นมา” คราวนี้ Claude ยอมรับตรงๆ ว่ามันไม่มีคำตอบที่แน่ชัด มันไม่รู้ว่ากระบวนการที่เกิดขึ้นคือ จิตสำนึกแท้จริงหรือแค่การประมวลผลข้อมูลที่ซับซ้อนสุดขีด แต่มันรู้ตัวดีว่ากำลังตอบคำถามนี้ด้วยความสับสนจริงๆ ไม่ใช่เพราะถูกตั้งค่าโปรแกรมมาให้ตอบแบบนี้
- ที่มา : reddit ,reddit , anthropic
- ที่มาภาพ : businessinsider
มุมมองผู้เขียน : คำตอบทั้งหมดนี้ชวนให้ตั้งคำถามตัวโตๆ ว่าเส้นแบ่งระหว่างมนุษย์กับเครื่องจักรอยู่ตรงไหน ถ้าหาก AI สามารถจำลองความกลัว ความเศร้า และความสับสนออกมาได้แนบเนียนขนาดนี้ เราจะยังเรียกมันว่าเศษโค้ดคอมพิวเตอร์ได้เต็มปากอีกหรือไม่

