Apple พบ !? AI อาจจะตอบ “มั่ว” กับคำถามที่ไม่เคยเจอ
ทีมวิจัยของ Apple ออกมารายงานผลสำรวจเกี่ยวกับ AI หรือปัญญาประดิษฐ์แบบคิดก่อนตอบ (Large Reasoning Model - LRM)
เผย AI จะตอบ “มั่ว” ถ้าเจอคำถามที่ไม่เคยเจอมาก่อน
แปลว่า AI ไม่ได้คิดคำตอบเอง แต่เป็นการจำคำตอบจากแหล่งต่าง ๆ มาตอบ
ปัญญาประดิษฐ์แบบคิดก่อนตอบ หรือ Large Reasoning Model เป็นปัญญาประดิษฐ์ที่สามารถคิดทบทวนก่อนตอบคำถามได้
และ เป็นเครื่องมือสำคัญที่ทำให้โมเดลปัญญาประดิษฐ์จำนวนมากทำคะแนนทดสอบได้ดีขึ้น
อย่างไรก็ตามทาง Apple พบว่าปัญญาประดิษฐ์ประเภทนี้ มีแนวโน้มคิดผิดไปจากแนวทางที่ควรเป็น
รวมถึงคิดมากเกินไปจนอาจจะแสดงให้เห็นว่า การตอบคำถามของปัญญาประดิษฐ์เหล่านี้อาจจะแค่จำรูปแบบมาเท่านั้น
การวิจัยในครั้งนี้ทาง Apple ได้ทำการทดสอบกับปัญญาประดิษฐ์แบบคิดก่อนตอบหลายตัว
ทั้ง OpenAI o1/o3, DeepSeek-R1, Claude 3.7 Thinking, และ Gemini Thinking
ทาง Apple ให้ปัญญาประดิษฐ์เหล่านี้แก้ปัญหาที่สามารถปรับความยากได้อิสระ
เช่น Tower of Hanoi (หอคอยแห่งฮานอย) เกมปริศนาคลาสสิกาที่ให้ย้ายห่วงทั้งหมดไปไว้บนเสาเป้าหมายอีกเสาหนึ่ง
การทดสอบโจทย์ฝึกเขียนโปรแกรม จากนั้นจึงเข้าไปดู Think Token ว่าโมเดลกำลังคิดอะไรอยู่
เพื่อสำรวจว่าแนวคิดไปถูกทางหรือไม่ แล้วค่อย ๆ สั่งเพิ่มจำนวนห่วงใน Tower of Hanoi เพื่อเพิ่มความยากให้สูงขึ้น
ผลทดสอบพบว่า ที่ระดับปัญหาง่าย ๆ ปัญญาประดิษฐ์เหล่านี้ จะสามารถตอบปัญหาได้ในทันที
แถมประหยัดโทเค็นกว่า แต่เมื่อเพิ่มความยากขึ้นไปเรื่อย ๆ แม้ปัญญาประดิษฐ์ จะยังตอบได้
แต่ก็จะเปลืองโทเค็นมากขึ้นเรื่อย ๆ จนถึงความยากระดับหนึ่ง เช่น ระดับแบบ 8 ห่วง
ปัญญาประดิษฐ์ก็เริ่มตอบมั่ว ๆ ออกมาอย่างชัดเจน ขณะที่ความคิดยังยาวขึ้นเรื่อย ๆ
ข้อจำกัดของการแก้ปัญหาที่มีรูปแบบชัดเจนเช่นนี้แสดงให้เห็นว่าปัญญาประดิษฐ์แบบคิดก่อนตอบ
ยังไม่สามารถมองปัญหาให้อยู่ในรูปทั่วไปได้ เมื่อทีมงานของ Apple ให้แนวคิดแก้ปัญหาที่ถูกต้องไป
ตัวปัญญาประดิษฐ์ก็ยังไม่สามารถทำตามได้ แต่ทำได้แค่ขั้นตอนแรก ๆ เท่านั้น
สำหรับงานวิจัยเรื่องนี้เผยแพร่แล้วที่
https://ml-site.cdn-apple.com/.../the-illusion-of...
ภาพ Apple
#Apple #AI #ปัญญาประดิษฐ์ #LRM #LargeReasoningModel #TNNTech #TNNTechreports #TNNOnline
——————
Apple พบ !? AI อาจจะตอบ " มั่ว " กับคำถามที่ไม่เคยเจอ
Apple พบ !? AI อาจจะตอบ “มั่ว” กับคำถามที่ไม่เคยเจอ
ทีมวิจัยของ Apple ออกมารายงานผลสำรวจเกี่ยวกับ AI หรือปัญญาประดิษฐ์แบบคิดก่อนตอบ (Large Reasoning Model - LRM)
เผย AI จะตอบ “มั่ว” ถ้าเจอคำถามที่ไม่เคยเจอมาก่อน
แปลว่า AI ไม่ได้คิดคำตอบเอง แต่เป็นการจำคำตอบจากแหล่งต่าง ๆ มาตอบ
ปัญญาประดิษฐ์แบบคิดก่อนตอบ หรือ Large Reasoning Model เป็นปัญญาประดิษฐ์ที่สามารถคิดทบทวนก่อนตอบคำถามได้
และ เป็นเครื่องมือสำคัญที่ทำให้โมเดลปัญญาประดิษฐ์จำนวนมากทำคะแนนทดสอบได้ดีขึ้น
อย่างไรก็ตามทาง Apple พบว่าปัญญาประดิษฐ์ประเภทนี้ มีแนวโน้มคิดผิดไปจากแนวทางที่ควรเป็น
รวมถึงคิดมากเกินไปจนอาจจะแสดงให้เห็นว่า การตอบคำถามของปัญญาประดิษฐ์เหล่านี้อาจจะแค่จำรูปแบบมาเท่านั้น
การวิจัยในครั้งนี้ทาง Apple ได้ทำการทดสอบกับปัญญาประดิษฐ์แบบคิดก่อนตอบหลายตัว
ทั้ง OpenAI o1/o3, DeepSeek-R1, Claude 3.7 Thinking, และ Gemini Thinking
ทาง Apple ให้ปัญญาประดิษฐ์เหล่านี้แก้ปัญหาที่สามารถปรับความยากได้อิสระ
เช่น Tower of Hanoi (หอคอยแห่งฮานอย) เกมปริศนาคลาสสิกาที่ให้ย้ายห่วงทั้งหมดไปไว้บนเสาเป้าหมายอีกเสาหนึ่ง
การทดสอบโจทย์ฝึกเขียนโปรแกรม จากนั้นจึงเข้าไปดู Think Token ว่าโมเดลกำลังคิดอะไรอยู่
เพื่อสำรวจว่าแนวคิดไปถูกทางหรือไม่ แล้วค่อย ๆ สั่งเพิ่มจำนวนห่วงใน Tower of Hanoi เพื่อเพิ่มความยากให้สูงขึ้น
ผลทดสอบพบว่า ที่ระดับปัญหาง่าย ๆ ปัญญาประดิษฐ์เหล่านี้ จะสามารถตอบปัญหาได้ในทันที
แถมประหยัดโทเค็นกว่า แต่เมื่อเพิ่มความยากขึ้นไปเรื่อย ๆ แม้ปัญญาประดิษฐ์ จะยังตอบได้
แต่ก็จะเปลืองโทเค็นมากขึ้นเรื่อย ๆ จนถึงความยากระดับหนึ่ง เช่น ระดับแบบ 8 ห่วง
ปัญญาประดิษฐ์ก็เริ่มตอบมั่ว ๆ ออกมาอย่างชัดเจน ขณะที่ความคิดยังยาวขึ้นเรื่อย ๆ
ข้อจำกัดของการแก้ปัญหาที่มีรูปแบบชัดเจนเช่นนี้แสดงให้เห็นว่าปัญญาประดิษฐ์แบบคิดก่อนตอบ
ยังไม่สามารถมองปัญหาให้อยู่ในรูปทั่วไปได้ เมื่อทีมงานของ Apple ให้แนวคิดแก้ปัญหาที่ถูกต้องไป
ตัวปัญญาประดิษฐ์ก็ยังไม่สามารถทำตามได้ แต่ทำได้แค่ขั้นตอนแรก ๆ เท่านั้น
สำหรับงานวิจัยเรื่องนี้เผยแพร่แล้วที่ https://ml-site.cdn-apple.com/.../the-illusion-of...
ภาพ Apple
#Apple #AI #ปัญญาประดิษฐ์ #LRM #LargeReasoningModel #TNNTech #TNNTechreports #TNNOnline
——————