ในขณะที่ AI มักถูกสวมบทบาทให้มีเนื้อหาที่รุนแรง Anthropic บริษัทที่ดูแลโดยอดีตนักวิจัยของ OpenAI กำลังวางแผนที่จะสร้าง AI ที่สามารถตระหนักรู้ได้ว่าอะไรคือสิ่งที่ดีและอะไรคือสิ่งที่ไม่ดี และให้มีมนุษย์เข้ามาแทรกแซงการตัดสินใจของ AI น้อยที่สุด
Claude เป็นแชทบอทที่ Anthropic ออกแบบด้วย “รัฐธรรมนูญ” ซึ่งเป็นกฎที่มีลักษณะเฉพาะ ที่ได้แรงบันดาลใจมาจาก ปฏิญญาสากลว่าด้วยสิทธิมนุษยชน (Universal Declaration of Human Rights) ที่ถูกสร้างขึ้นเพื่อรับรองว่า พฤติกรรมต่าง ๆ จะมีจริยธรรม ควบคู่ไปกับการทำงานที่มีประสิทธิภาพ พร้อมด้วยบรรทัดฐานด้าน “จริยธรรม” อื่น ๆ อย่างกฎของ Apple สำหรับผู้พัฒนาแอปพลิเคชัน
อย่างไรก็ตาม คอนเซปต์ของ “รัฐธรรมนูญ” ที่กรณีนี้อาจถูกพูดในเชิงเปรียบเทียบมากกว่าในเชิงลายลักษณ์อักษร Jared Kaplan อดีตที่ปรึกษาของ OpenAI และหนึ่งในผู้ก่อตั้ง Anthropic กล่าวกับนิตยสาร Wired ว่า รัฐธรรมนูญของ Claude อาจถูกเรียกได้ว่าเป็นชุดฝึกฝนแบบพิเศษที่ผู้ฝึกใช้เพื่อฝึกฝนโมเดล AI เพื่อปรับพฤติกรรมของ AI ให้สอดคล้องกับรัฐธรรมนูญและป้องกันพฤติกรรมที่อาจเป็นปัญหา
วิธีการฝึก AI ของ Anthropic ถูกอธิบายเอาไว้ในงานวิจัยหัวข้อ “Constitutional AI: Harmlessness from AI Feedback” ซึ่งกล่าวถึงวิธีการสร้าง AI ที่มีประโยชน์และ “ไม่เป็นภัย” ได้อย่างไร ซึ่งหลังจากฝึกแล้ว AI จะสามารถพัฒนาตัวเองได้โดยไม่จำเป็นต้องอาศัยข้อเสนอแนะจากมนุษย์ ระบุพฤติกรรมที่ไม่เหมาะสมและปรับพฤติกรรมของตนเองได้
“ขอบคุณระบบรัฐธรรมนูญ AI และการฝึกให้ AI ไม่เป็นภัย คุณสามารถเชื่อใจ Claude ในการเป็นตัวแทนบริษัทและสามารถตอบสนองต่อความต้องการของบริษัทของคุณได้” Anthropic กล่าวบนเว็บไซต์ทางการของบริษัท “Claude ถูกฝึกให้สามารถรับมือคู่สนทนาที่ไม่เป็นมิตรหรือไม่ประสงค์ดีได้อย่างสง่างาม”
นอกจากนี้ Claude ยังสามารถรับมือกับโทเค็นข้อมูลได้ถึง 100,000 โทเค็น มากกว่า ChatGPT, Bard หรือ LLM และแชทบอท AI คู่แข่งอื่น ๆ มีอยู่ในขณะนี้
โดยในโลกของ AI “โทเค็น” มักถูกกล่าวถึงก้อนข้อมูล อย่างคำหรือตัวอักษรต่าง ๆ ที่โมเดลประมวลผลเป็นหน่วยแยก โดยประสิทธิภาพทางโทเค็นของ Claude ทำให้ Claude สามารถจัดการกับบทสนทนาที่มีความยืดยาวและซับซ้อนได้ ทำให้ Claude มีความโดดเด่นในวงการ
ความกังวลด้านจริยธรรม ถือเป็นหนึ่งในเรื่องที่มีความเร่งด่วน โดยจริยธรรมที่ผู้ฝึก AI เป็นคนสอน อาจไม่ได้มีความสอดคล้องกับจริยธรรมทางสังคมในวงกว้าง มุมมองว่าเรื่องไหน “ดี” หรือ “ไม่ดี” ของผู้ฝึก AI อาจลดความสามารถของ AI ในการตอบสนองอย่างมีประสิทธิภาพและเป็นกลาง
ประเด็นนี้ เป็นที่ถกเถียงอย่างร้อนแรงในหมู่ผู้สนใจ AI ผู้ที่ทั้งยกย่องและวิพากษ์วิจารณ์การแทรกแซงของ OpenAI ในการทำให้โมเดลมีความถูกต้องทางจริยธรรมมากขึ้น ถึงอย่างนั้น AI จำเป็นต้องได้รับการฝึกด้วยข้อมูที่ผิดจริยธรรมเพื่อให้สามารถแยกแยะได้ว่าอะไรคือสิ่งที่ผิดจริยธรรม และหาก AI สามารถจับจุดเหล่านั้นได้ มนุษย์จะหาทางทำการ “แหกคุก” ระบบ ข้ามข้อจำกัดต่าง ๆ และทำให้ AI ทำในสิ่งที่ผู้ฝึกพยายามหลีกเลี่ยง
การฝึกฝนด้านจริยธรรมของ Claude บีบให้ Claude ต้องเลือกตอบสนองให้สอดคล้องกับรัฐธรรมนูญ โดยมุ่งเน้นไปที่การสนับสนุนเสรีภาพ ความเสมอภาค ภารดรภาพ และการเคารพสิทธิส่วนบุคคล โดย Jared Kaplan เชื่อว่า เทคโนโลยีนี้ สามารถไปได้ไกลกว่าที่หลายคนคิด “นี่เป็นเพียงการทำงานอย่างตรงไปตรงมา” เขากล่าวในงานสัมมนา Stanford MLSys Seminar เมื่อสัปดาห์ที่แล้ว “ความไม่เป็นอันตรายนี้ จะพัฒนาขึ้นหากคุณสามารถผ่านขั้นตอนนี้ไปได้”

ที่มา: Decrypt