🧠🧠🧠 มันหมดยุคของการเปรียบเทียบลูกตนเองกับลูกป้าข้างบ้านแล้ว สู่ยุคเทียบกับ AI 👶🧑🍼
[Spoil] คลิกเพื่อดูข้อความที่ซ่อนไว้มันหมดยุคของการเปรียบเทียบลูกตนเองกับลูกป้าข้างบ้านแล้ว เพราะ ‘Sam Altman’ ซีอีโอและผู้ร่วมก่อตั้ง ‘OpenAI’ เผยว่า “ลูกผมไม่มีวันฉลาดกว่า AI”
.
เมื่อเดือนกุมภาพันธ์ 2025 เจ้าตัวเพิ่งต้อนรับลูกคนแรกเข้าสู่โลกใบนี้ พร้อมบอกว่า ลูกๆ ของเขาจะเติบโตมาแบบมีความสามารถมากกว่าคนรุ่นก่อน ทำในสิ่งที่พวกเราคาดไม่ถึง และใช้ AI เก่งมากๆ แต่จะไม่ฉลาดกว่า เพราะนวัตกรรมอย่าง ‘ChatGPT’
.
นับเป็นประโยคที่ไม่ค่อยได้ยินบ่อยนักจากปากของคุณพ่อป้ายแดงคนอื่นๆ แต่ Altman เสริมว่า “ผมว่าลูกผมไม่แคร์เรื่องที่พวกเขาจะไม่ฉลาดกว่า AI หรอก”
.
[ คิดไม่ออกว่าคนสมัยก่อนเลี้ยงลูกยังไงโดยไม่มี ChatGPT ]
.
ในฐานะคุณพ่อมือใหม่ และคนที่นิยามตนเองว่าเป็น ‘Extremely Kid-Pilled’ หรือคนที่เชื่อว่า ทุกคนควรมีลูกเยอะๆ Altman ยอมรับว่า ChatGPT มีบทบาทสำคัญอย่างมากในการเลี้ยงดูลูก พร้อมเผยว่าในช่วงสัปดาห์แรกๆ หลังลูกชายลืมตาดูโลก เขามักถาม AI ตลอดเกี่ยวกับวิธีการดูแลเด็กขั้นพื้นฐาน
.
Altman รู้ดีว่า มนุษย์เราสามารถเลี้ยงดูเบบี๋แบบไม่ต้องพึ่ง ChatGPT มานานแล้ว แต่เขาคิดไม่ออกเลยว่า ตนเองจะทำเช่นนั้นได้อย่างไร
.
แม้เล็งเห็นว่า ความล้ำหน้าของ AI อาจสร้างปัญหาให้สังคม โดยเฉพาะความเสี่ยงจากการพึ่งพาพวกมันมากไป แต่ลึกๆ แล้ว เขายังเชื่อว่า ประโยชน์ของปัญญาประดิษฐ์จะมากกว่าข้อเสียที่พวกมันสร้าง
.
อย่างไรก็ตาม ดูเหมือนคำพูดของเขาจะย้อนแย้งไปมาเรื่อยๆ เพราะ Altman บอกทีหลังว่า เอาจริงๆ ตนรู้เรื่องที่ ChatGPT ชอบ ‘หลอน’ อยู่บ่อยครั้ง แต่คนก็ยังเลือกเชื่อมันอยู่
.
“ผู้คนให้ความไว้วางใจ ChatGPT สูงมาก ซึ่งเป็นเรื่องที่น่าสนใจ เพราะ AI ชอบหลอนนะ มันไม่ใช่เทคโนโลยีที่คุณจะเชื่อใจขนาดนั้น” Altman กล่าว
.
[ แล้วอนาคตจะกล้าเอา AI มาใช้ในชีวิตประจำวันได้ยังไง? ]
.
ปรากฏการณ์ AI หลอนนั้นมีชื่อเรียกว่า ‘AI Hallucination’ ซึ่งหมายถึงเวลาที่ ‘LLM’ (Large Language Model หรือ โมเดลภาษาขนาดใหญ่) เช่น AI แชทบอท ดันไปจับทางหรือเจอแพทเทิร์นที่ไม่มีอยู่จริง แต่เอามาตอบคำถามเราแบบไร้เหตุผลและไม่ถูกต้อง
.
ข้อผิดพลาดนี้สามารถเกิดขึ้นจากหลายสาเหตุ เช่น ข้อมูลในคลังไม่ดี อัลกอริธึมแย่ หรือถูกเทรนมาแบบลำเอียง แต่ก็ยังไม่มีใครรู้ถึงต้นตอที่แน่ชัด
.
ที่น่ากลัวไปกว่านั้นคือ ปัจจุบัน AI ไม่ได้ถูกใช้แค่ในการทำงานง่ายๆ อย่าง ตรวจแกรมมาร์อีกต่อไป แต่รวมถึงการใช้งานในวงการแพทย์ การเขียนข้อความทางกฎหมาย และการบำรุงรักษาอุตสาหกรรม ซึ่งหากพวกมันทำพลาดล่ะก็ ผลเสียที่ตามมาคงเป็นหายนะครั้งใหญ่
.
คุณอาจคิดว่า ให้เวลามันหน่อย ถ้าพัฒนาไปมากกว่านี้ มันคงดีขึ้น แต่เชื่อหรือไม่ เมื่อหลายปีที่แล้ว นักวิจัยรวมถึงนักพัฒนาหลายๆ คน ออกมาบอกว่า ปัญหา AI Hallucination ยังไม่ถูกแก้ไข แถมยังเกิดขึ้นบ่อยกว่าเดิม และผู้ใช้งานจับข้อผิดพลาดได้น้อยลงด้วย
.
‘The Japan Times’ รายงานว่า ตอนนี้ AI มี ‘ระบบการใช้เหตุผล’ (Reasoning System) แบบใหม่ ที่จะตอบคำถามผู้ใช้งานช้ากว่าเดิมในหลักเสี้ยววิ แต่กลับทำพลาดยิ่งขึ้น โดยหนึ่งในการทดสอบระบบ พบว่า AI โมเดลใหม่ๆ มีอัตราการหลอนสูงถึง 79%
.
อย่างไรก็ตาม The Japan Times บอกว่า ตัวเลข 79% นั้นอาจจะดูสูงไปหน่อย เพราะเอาจริงๆ โมเดลส่วนใหญ่ก็มีอัตราการหลอนต่ำกว่านั้น แต่ยังอยู่ที่ดับเบิ้ลดิจิตเช่นเดิม
.
[ ต่อให้พยายามแค่ไหน มันก็จะหลอนอยู่ดี ]
.
แน่นอนว่า ผู้เชี่ยวชาญสายเทคไม่ได้นิ่งนอนใจ แต่เมื่อเวลาผ่านไป พอ AI มีฐานข้อมูลที่แน่นขึ้น ความหวังในการแก้ปัญหากลับน้อยลงเรื่อยๆ
.
‘Amr Awadallah’ ซีอีโอของ Vectara บริษัทสตาร์ทอัพผู้ผลิตเครื่องมือ AI สำหรับธุรกิจต่างๆ เตือนว่า ต่อให้พยายามหนักแค่ไหน ยังไงๆ ปัญญาประดิษฐ์ก็จะหลอนอยู่ดี ปัญหานี้ไม่มีวันหายไปหรอก
.
ขณะเดียวกัน ทีมวิจัยจากจีนก็พูดว่า ปรากฏการณ์ความหลอนของ AI เป็นเหมือนกับลักษณะตามธรรมชาติของโมเดล GPT ไปแล้ว และแทบเป็นไปไม่ได้เลย ถ้าอยากแก้ไขปัญหานี้ โดยไม่ลดคุณภาพการทำงานของมัน
.
ปีที่แล้ว ศาสตราจารย์สายเทคสามคนเขียนบทความลง Harvard Business Review ว่า ให้ระวังความเสี่ยงจากการแพร่ระบาดของ ‘Botshit’
.
Botshit ในที่นี้ ไม่ต่างจาก
หรือถ้าให้พูดแบบสุภาพๆ คือความไร้สาระ เพราะพวกที่ชอบพูดแบบไม่มีแก่นสารก็เหมือนกับ AI ที่ให้คำตอบแบบไม่แคร์ว่าจะจริงแท้แค่ไหน ขอเพียงโน้มน้าวให้ผู้ฟังหรือผู้ใช้งานเชื่อเท่านั้น
.
ด้านนักวิจัยจาก ‘Oxford Internet Institute’ เคยรายงานว่า พวก LLM ไม่ได้ถูกดีไซน์มาให้พูดแค่ความจริงอย่างเดียว แต่พวกมันยังถูกประเมินผลงานจากหลายๆ แกน เช่น การให้ความช่วยเหลือ ความปลอดภัย ประสิทธิภาพทางเทคนิค การสร้างกำไร และการยอมรับจากผู้ใช้งาน
.
ด้วยเหตุนี้ พวกเขาจึงเตือนว่า AI อาจเป็นภัยอันตรายที่แพร่ระบาดได้ ซึ่งสิ่งที่น่ากลัวไม่ใช่ความหลอน แต่เป็นความมั่นใจในคำตอบของพวกมันต่างหาก ที่สามารถโน้มน้าวให้ทั้งผู้เชี่ยวชาญและคนทั่วๆ ไป หลงเชื่อในสิ่งที่เป็นเท็จ
.
ความเสี่ยงนี้ไม่ได้ส่งผลแค่ในระดับบุคคลเท่านั้น เพราะ ‘Harry Frankfurt’ นักปรัชญาบอกว่า มันจะนำไปสู่ผลเสียเชิงวิทยาศาสตร์ การศึกษา และสังคมในระยะยาวด้วย
.
สุดท้ายนี้ เราคงไม่สามารถไปตัดสินว่า มุมมองการเลี้ยงลูกของ Altman ในฐานะซีอีโอ OpenAI นั้นถูกต้องไหม หรือจริงๆ แล้ว ChatGPT ก็อาจเป็นพี่เลี้ยงเด็กที่ดีได้ ตราบใดที่พ่อแม่ไม่เชื่อใจมันมากเกินไป
.
แล้วคุณล่ะ จะกล้าให้ ChatGPT แนะนำวิธีการเลี้ยงเด็กแรกเกิดหรือเปล่า?
.
#BrandInside #ธุรกิจคิดใหม่ #SamAltman #OpenAI #ChatGPT #AI #เลี้ยงลูก #พ่อแม่ #AIHallucination
🧠🧠🧠 มันหมดยุคของการเปรียบเทียบลูกตนเองกับลูกป้าข้างบ้านแล้ว สู่ยุคเทียบกับ AI 👶🧑🍼