อย่าเชื่อทุกอย่างที่ AI ตอบเพราะอาจถูกหลอกด้วยข้อมูลผิด ๆ



อย่าเชื่อทุกอย่างที่ AI ตอบ เพราะอาจถูกหลอกด้วยข้อมูลผิด ๆ

ทุกวันนี้เวลาเราอยากได้คำตอบอะไร เราก็มักเลือกถาม Generative AI (ChatGPT, Gemini, Grok) ​เพราะมันง่าย ถามแล้วได้คำตอบเลย ที่สำคัญดูมีหลักการและเข้าใจง่าย ทำให้มีการเอาไปใช้ร่วมกับการเรียน และการทำงาน ซึ่งหลายคนก็มักจะเชื่อว่า “คำตอบจาก AI นั้นถูกต้อง”​ และนำไปใช้งาน หรืออ้างอิงโดยไม่ได้ตั้งคำถามว่า มันไปเอาคำตอบมาจากไหน คือคำตอบที่ถูกต้องจริง ๆ หรือเปล่า ? รวมถึงการตรวจสอบความถูกต้องซ้ำ

แม้แต่ผู้สร้างยังบอกว่า “ไม่ควรไว้ใจ AI”

“เป็นเรื่องน่าสนใจนะ ที่ผู้คนเชื่อ ChatGPT กันมาก ๆ ทั้ง ๆ ที่ AI ก็มีอาการหลอนข้อมูล (Hallucinate) ได้ พูดง่าย ๆ คือมันควรจะเป็นเทคโนโลยีที่เราไม่ควรจะไว้ใจมันมากขนาดนั้น” — แซม อัลต์แมน (Sam Altman) CEO ของ OpenAI พูดใน the OpenAI Podcast Ep. 1

แม้แต่หัวเรือใหญ่ของ ChatGPT อย่าง แซม อัลต์แมน ยังตั้งคำถามว่า ทำไมผู้คนถึงเชื่อ AI กันมาก ๆ ทั้งที่ AI มักมี ‘อาการหลอนข้อมูล (Hallucinate)’ สร้างข้อมูลที่ไม่มีอยู่จริง และให้คำตอบผิด ๆ ในรูปแบบที่น่าเชื่อถือ สิ่งนี้มีโอกาสเกิดขึ้นได้ทุกเมื่อ

กรณีศึกษาเมื่อ AI มั่วข้อมูลขึ้นมา

มีหลายครั้งที่ผู้คนเชื่อคำตอบจาก AI เกินไป จนเอามาใช้อ้างอิงจริงจัง จนเกิดเป็นเรื่องราวใหญ่โต เคสแรกคือ ไมเคิล โคเฮน (Michael Cohen) อดีตทนายความส่วนตัวของประธานาธิบดี โดนัลด์ ทรัมป์ (Donald Trump) ที่ใช้ AI ในการรีเซิร์ชคดีในอดีต (Case law) หลายคดีเพื่อสนับสนุนคำร้องในการขอลดระยะเวลาการคุมประพฤติของตัวเองให้สิ้นสุดลงก่อนกำหนด แม้จะมีข้อมูลครบถ้วน และดูน่าเชื่อถือมาก ๆ แต่พอศาลตรวจสอบจริง ๆ กลับพบว่าคดีที่เอามาอ้างทั้งหมด “ไม่มีอยู่จริง” ซึ่งเป็นข้อมูลที่ AI มโน สร้างขึ้นมาเอง โดยไม่มีการตรวจสอบความถูกต้องซ้ำ

อีกตัวอย่างเมื่อต้นปี 2025 ที่การันตีได้ว่า “คำตอบจาก AI ไม่ได้ถูกต้องทั้งหมด” คือการที่ BBC ออกมาเผยแพร่ผ่าน Nieman Journalism Lab ของมหาวิทยาลัยฮาร์วาร์ด ว่าได้ทดสอบ ให้ AI ยอดฮิต 4 ตัว เอาข่าวของ BBC มาสรุปและตอบคำถาม ผลลัพธ์ที่ออกมากลับพบว่าคำตอบกว่า 51% ที่ AI สร้างขึ้น “มีปัญหา” ตั้งแต่

19% ของคำตอบมี "ข้อผิดพลาดด้านข้อเท็จจริง" เช่น ตัวเลข, วันที่ หรือข้อมูลสำคัญที่ไม่ถูกต้อง
13% ของคำพูดหรือคำอ้างอิง (Quotes) ถูก "บิดเบือน" ไปจากต้นฉบับ หรือไม่มีอยู่จริงในบทความที่อ้างอิง

และที่ใกล้ตัวเข้ามาอีก เมื่อสำนักข่าวหนึ่งในไทยใช้ AI ในการเขียนข่าว ซึ่งมีจุดที่ผิดพลาดในส่วนของ ชื่อตำแหน่ง และการอ้างอิงถึงนักวิชาการที่เสียชีวิตไปแล้วในข่าวจนเกิดเป็นประเด็นขึ้นมา เรื่องการนำ AI มาใช้โดยที่ไม่มีการตรวจสอบความถูกต้องซ้ำอีกรอบ

คำตอบดูดี แต่ต้องตรวจสอบซ้ำเสมอ

ปฏิเสธไม่ได้ว่าการใช้ AI ตอบคำถามต่าง ๆ ที่สงสัย หรือใช้ร่วมกับการเรียน - การทำงานได้จริง ๆ แต่ต้องระลึกไว้เสมอว่า “เราไม่รู้ว่า AI เอาข้อมูลจากไหนมาตอบเรา” การตรวจสอบข้อมูลซ้ำเป็นเรื่องสำคัญที่ควรทำเสมอทุกครั้ง โดยการเช็กซ้ำมีหลากหลายวิธี ซึ่ง BT เองก็มีวิธีการคร่าว ๆ ที่ใช้สำหรับการเช็กข้อมูลซ้ำ

เริ่มตั้งแต่การเขียน Prompt : ไม่ว่าเราจะถามคำถามเรื่องอะไร ให้เรากำกับ AI ทุกครั้งว่า “​ห้ามสร้างข้อมูลขึ้นมาเอง ให้อ้างอิงแหล่งข้อมูลที่น่าเชื่อถือ พร้อมระบุลิงก์แหล่งที่มา”

จากนั้นก็มาตรวจสอบข้อมูลซ้ำอีกทีจากแหล่งที่มา หรือลิงก์ที่แนบมากับคำตอบอย่างละเอียด แม้ว่าสิ่งที่ AI ตอบออกมาจะดูมีความสมเหตุสมผลแค่ไหนก็ตาม

สุดท้าย AI เป็นเทคโนโลยีที่ดี แต่มันไม่ได้ตอบถูกทั้งหมด และในบางครั้งมันไม่รู้ว่าตอบผิดด้วยซ้ำ ถ้าสังเกตดี ๆ จะมีประโยคโผล่ขึ้นมาหลังจากที่ AI ตอบทุกครั้งว่า “AI อาจเกิดข้อผิดพลาดได้ ให้ตรวจสอบซ้ำ” อย่างคำที่ แซม อัลต์แมนผู้ให้กำเนิด ChatGPT พูดไว้ว่า “มันควรจะเป็นเทคโนโลยีที่เราไม่ควรจะไว้ใจมันมากขนาดนั้น”

ที่มา :Economictimes Indiatimes, Courthouse News, Niemanlab

#BTbeartai #AI #เช็กคำตอบAI #อย่างเชื่อAI

Credit :
Facbeook BT Beartai แบไต๋
https://www.facebook.com/share/p/1Aft7TkKqN/
แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่