<?php wp_title('|', true, 'right'); ?>

AI อัจฉริยะจริงไหม ? ทำไมถึงชอบวาดมือคนเละ หรือมนุษย์จะถูกมองว่าไม่ควรมี 5 นิ้ว?

ติดตามสยามบล็อกเชนบนSiam Blockchain

หลังจากที่ทางเพจ AI Angel Gallery ใช้ AI สร้างสรรค์ผลงานในธีมนักศึกษาสาวด้วยโปรแกรม Stable Diffusion WebUI และคว้าใจชาวเน็ตไปอย่างรวดเร็วด้วย Gallery นิสิตสาวสวยที่ไม่ว่าใครก็ต้องหยุดมอง จนต่อมาภาพชุดนี้ได้กลายเป็นกระแสในโลกโซเชียลอยู่พักใหญ่

ในขณะเดียวกัน ชาวเน็ตจำนวนหนึ่งได้สังเกตเห็นว่านิ้วมือของสาวสวยในบางภาพมักจะมี 4 นิ้ว หรือ 6 นิ้ว แม้แต่อาจารย์ตั๊ม พิริยะ ก็ยังทักด้วยว่า “AI ยังไม่เข้าใจว่าทำไมคนถึงมีแค่ห้านิ้ว”

เป็นที่น่าสังเกตว่าภาพวาดของ AI นั้นมักทำให้ผู้คนรู้สึกทึ่งกับรายละเอียดบนใบหน้า ผิว ผม และเสื้อผ้าที่ดูเหมือนจริงราวกับภาพถ่าย อีกทั้งการแสดงออกของบุคคลในภาพก็มักตรงกับสิ่งที่ผู้ใช้ขอให้ AI วาด อย่างไรก็ตาม ภาพวาดฝีมือ AI ยังคงมีข้อผิดพลาดเล็กน้อยอยู่เสมอ

ทว่าข้อผิดพลาดเล็กน้อยนั้นกลับเป็นสิ่งที่ใคร ๆ ต่างก็มองข้ามได้ยาก เนื่องจากบางทีมนุษย์ในสายตา AI ก็มีนิ้วพิเศษเพิ่มขึ้นมา บางทีจำนวนนิ้วถูกต้อง แต่มันกลับยืดยาวผิดปกติ หรือบางทีก็มีจำนวนฟันมากเกินไป

ในช่วงไม่กี่เดือนที่ผ่านมา AI ประเภท Generative models เช่น Midjourney, Stable Diffusion และ DALL-E 2 ได้รับความนิยมเพิ่มขึ้นอย่างมาก เพราะแค่ผู้ใช้ป้อนข้อความง่าย ๆ ว่าต้องการภาพแบบไหน Generative AI เหล่านี้ก็สามารถช่วยให้ทุกคนสร้างรูปภาพได้เกือบทุกชนิดเท่าที่ต้องการ

โปรแกรมที่ขับเคลื่อนด้วย Generative AI สามารถทำงานได้แบบนั้นเพราะได้รับการ “ฝึกฝน” ให้จดจำความสัมพันธ์ระหว่างรูปภาพนับพันล้านภาพที่คัดลอกมาจากอินเทอร์เน็ต และคำอธิบายข้อความที่มาพร้อมกับรูปภาพเหล่านั้น จนกระทั่งในที่สุด โปรแกรมก็ “เข้าใจ” ว่าคำว่า “สุนัข” นั้นเกี่ยวข้องกับอะไร โดยรูปภาพและคำอธิบายเหล่านี้เรียกว่า “ชุดข้อมูล”

งานศิลปะที่สร้างขึ้นโดยใช้ AI ที่ได้รับการฝึกฝนบนชุดข้อมูลดังกล่าวกำลังชนะการแข่งขันทางตลาด และมักถูกใช้เพื่อเป็นภาพประกอบบทความหรือภาพประกอบข่าว แต่ถึงแม้จะมีความก้าวหน้าอย่างรวดเร็ว Generative AI ชั้นนำของโลกหลายตัวอย่าง Stable Diffusion, DALL-E 2 และ Midjourney ก็ยังคงไม่สามารถสร้างมือของมนุษย์ให้ดูสมจริงในทุก ๆ ภาพได้อยู่ดี

ทำไม Generative AI ไม่เข้าใจรายละเอียดของนิ้วมือมนุษย์?

Pranav Dixit นักข่าวจากสื่อ BuzzFeed ได้ส่งอีเมลถึง Midjourney, OpenAI และ Stability AI ทว่ามีเพียง Stability AI เท่านั้นที่ตอบคำถามของเขากลับมาว่า

“เป็นที่เข้าใจกันโดยทั่วไปว่าภายในชุดข้อมูลของ AI ภาพมือของมนุษย์มีความชัดเจนน้อยกว่าสิ่งที่ AI เห็นบนใบหน้า” โฆษกของ Stability AI กล่าว “นอกจากนี้มือยังมีแนวโน้มว่าจะมีขนาดเล็กมากในรูปภาพต้นฉบับ”

เพื่อให้เข้าใจมากขึ้น Dixit ได้ติดต่อกับ Amelia Winger-Bearskin ศิลปินและรองศาสตราจารย์ด้าน AI และศิลปะแห่งมหาวิทยาลัยฟลอริดาเพื่อขอคำอธิบายเพิ่มเติม โดยศาสตราจารย์ได้อธิบายว่า “Generative AI ที่ได้รับการฝึกฝนบนรูปภาพนับพันล้านภาพที่คัดมาจากอินเทอร์เน็ต แต่มันไม่เข้าใจจริง ๆ ว่า “มือ” คืออะไร อย่างน้อยก็ไม่เข้าใจว่ามันเชื่อมต่อทางกายวิภาคกับร่างกายมนุษย์”

“มันแค่ดูว่ามือถูกแสดงออกมาแบบไหนในภาพที่ได้รับการฝึกฝนมา” เธอกล่าว “มือในภาพผู้คนส่วนใหญ่มีความแตกต่างกันค่อนข้างมาก เพราะมือของพวกเขามักจะถือหรือจับบางสิ่ง หรือบางครั้งพวกเขากำลังใช้มือสัมผัสคนอื่นอยู่”

ในอนาคต AI อาจจะถูกพัฒนาขึ้นอย่างมากเพื่อให้แสดงภาพมือ เท้า และฟันได้อย่างถูกต้อง และสิ่งนี้ก็เป็นสิ่งที่ Winger-Bearskin มองว่า “มันต้องทำ” และเพื่อให้ AI กลายเป็นเครื่องมือที่มีประโยชน์สำหรับมนุษย์ AI ต้องเข้าใจว่าการเป็นมนุษย์คืออะไร และต้องเข้าใจในความเป็นจริงทางกายวิภาคของการเป็นมนุษย์

ที่มา: buzzfeednews