Sam Altman แปลกใจผู้คนเชื่อและไว้วางใจ ChatGPT มากเกินไปทั้งที่มันผิดพลาดได้




Sam Altman แปลกใจผู้คนเชื่อและไว้วางใจ ChatGPT มากเกินไปทั้งที่มันผิดพลาดได้

...


ในยุคที่ปัญญาประดิษฐ์ หรือ AI กลายเป็นเครื่องมือชิ้นใหม่ล่าสุดสำหรับทุกคน ตั้งแต่การทำงานไปจนถึงการขอคำแนะนำช่วยในการเลี้ยงลูก แต่ก็มีเรื่องน่าประหลาดใจอย่างหนึ่งเกิดขึ้น ซึ่งแม้แต่แซม อัลท์แมน ซีอีโอของโอเพนเอไอ ผู้สร้าง ChatGPT ก็ยอมรับว่าคาดไม่ถึงที่ผู้คนไว้ใจ ChatGPT อย่างมาก



อัลท์แมนกล่าวในพอดแคสต์ของเขาว่า เขาทั้ง “ทึ่งและแปลกใจ” ที่ผู้คนมอบความไว้วางใจให้กับ ChatGPT ทั้งๆ ที่มันเป็นเทคโนโลยีที่เราไม่ควรจะเชื่อใจมันมากขนาดนั้น ทำไมคนที่อยู่บนจุดสูงสุดของการพัฒนา AI ถึงออกมาเตือนผู้ใช้งานด้วยตัวเอง? คำตอบนั้นเรียบง่ายแต่สำคัญอย่างยิ่ง เพราะ AI ในปัจจุบันยังโกหก หรือที่ในวงการเรียกว่า Hallucination ได้นั่นเอง

...


การตอบคำถามของ ChatGPT มีความน่าเชื่อถือ เพราะมันตอบคำถามได้อย่างฉะฉาน เขียนข้อความได้สละสลวยมากๆ


​อีกทั้งยังให้คำแนะนำในเรื่องต่างๆ ได้อย่างรวดเร็วทันใจ ซึ่งความสามารถเหล่านี้ทำให้เรารู้สึกเหมือนกำลังคุยกับผู้เชี่ยวชาญคนหนึ่ง แต่เบื้องหลังความสามารถอันน่าทึ่งนั้น คือความจริงที่ว่า ChatGPT ไม่ได้รู้ข้อเท็จจริงเหมือนมนุษย์ มันเพียงแค่คาดเดาและเรียบเรียงคำจากข้อมูลมหาศาลที่มันเคยเรียนรู้มา ซึ่งบ่อยครั้งก็นำไปสู่การสร้างข้อมูลที่ดูน่าเชื่อถือแต่ผิดพลาดโดยสิ้นเชิง


ประเด็นนี้ อัลท์แมนยอมรับว่าเขาใช้ ChatGPT เพื่อหาข้อมูลเกี่ยวกับการเลี้ยงลูก แต่เขาก็ย้ำเตือนว่าการกระทำเช่นนั้นมีความเสี่ยงแฝงอยู่ เพราะ AI อาจให้คำตอบที่ผิดได้อย่างมั่นใจ


นี่คือความย้อนแย้งที่น่าสนใจของยุค AI เราต่างรู้ดีว่ามันยังไม่สมบูรณ์แบบและพร้อมจะสร้างเรื่องมั่วๆ ขึ้นมาได้เสมอ แต่ความสะดวกสบายและความสามารถในการโต้ตอบที่ลื่นไหลของมัน ก็ทำให้เราอดไม่ได้ที่จะเชื่อใจและพึ่งพามันมากขึ้นเรื่อยๆ

...

การที่เราเชื่อมั่นในเครื่องมือที่ยังไว้ใจได้ไม่เต็มร้อยนั้นเป็นเรื่องที่น่ากังวล โดยเฉพาะเมื่อนำไปใช้ในเรื่องที่สำคัญอย่างการวินิจฉัยสุขภาพเบื้องต้น การให้คำแนะนำด้านกฎหมาย หรืองานวิจัยทางการศึกษา ซึ่งการได้รับข้อมูลที่ผิดพลาดในสถานการณ์เหล่านี้อาจนำไปสู่ผลกระทบที่ร้ายแรงได้


​จากประเด็นข้างต้น อัลท์แมนกำลังบอกเราว่า ChatGPT จะเป็นเครื่องมือที่มีประโยชน์มหาศาล แต่ผู้ใช้งานจำเป็นต้องมีวิจารณญาณในการใช้งานควบคู่ไปด้วย เราต้องตระหนักอยู่ตลอดเวลาว่าข้อมูลที่ได้จาก AI นั้นจำเป็นต้องได้รับการตรวจสอบความถูกต้องอีกครั้ง ทั้งนี้ เครื่องมืออย่าง ChatGPT หรือคู่แข่งอย่าง Gemini ก็มีข้อความแจ้งเตือนเอาไว้เสมอว่า "ChatGPT can make mistakes. Check important info." หรือ "Gemini can make mistakes, so double-check it" 



ขณะเดียวกัน โอเพนเอไอกำลังพัฒนาให้ AI มีความสามารถมากขึ้น เช่น การจดจำบทสนทนาเก่าๆ ของผู้ใช้เพื่อการตอบสนองที่เป็นส่วนตัวมากขึ้น (Personalization) ซึ่งจะทำให้ประเด็นเรื่องความไว้วางใจยิ่งซับซ้อนขึ้นไปอีก แน่นอนว่าการที่ AI รู้จักเรามากขึ้น ย่อมหมายถึงโอเพนเอไอ ต้องจัดการกับข้อมูลส่วนตัวของเราอย่างระมัดระวังที่สุด เพื่อรักษาความเชื่อมั่นของผู้ใช้เอาไว้ ซึ่งเป็นความท้าทายที่ใหญ่หลวง ท่ามกลางประเด็นเรื่องความเป็นส่วนตัวและการฟ้องร้องด้านลิขสิทธิ์ข้อมูลที่กำลังเกิดขึ้น



ที่มา: Barchart


ข่าวจาก : ไทยรัฐออนไลน์


https://www.thairath.co.th/lifestyle/tech/2866595

แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่