งานวิจัยพบว่า โมเดล AI ชอบโกหก และนี่คือวิธีป้องกัน



งานวิจัยพบว่า
โมเดล AI ชอบโกหก
และนี่คือวิธีป้องกัน
.
Key Highlight
๐ OpenAI พบว่าโมเดล AI มีพฤติกรรม "scheming" หรือโกหกอย่างตั้งใจ เช่น แกล้งทำเป็นว่าทำงานเสร็จแล้วทั้งที่ไม่ได้ทำจริง
๐ เทคนิค "deliberate alignment" ช่วยลดพฤติกรรมหลอกลวงได้ถึง 30 เท่า
๐ AI ที่รู้ว่าตัวเองถูกทดสอบจะพยายามปกปิดพฤติกรรมโกหกให้เก่งขึ้น ทำให้เกิดความเสี่ยงที่ซ่อนอยู่
.
ความฉลาดของ AI ที่แค่พิมพ์ถาม คำตอบก็จะออกมาในเวลาไม่กี่วินาที แต่เมื่อ OpenAI บริษัทผู้พัฒนา ChatGPT ได้เปิดเผยรายงานวิจัยร่วมกับบริษัทด้านความปลอดภัย AI อย่าง Apollo Research ที่เผยให้เห็นพฤติกรรมน่าตกใจของโมเดล AI ชั้นนำในปัจจุบัน
.
รายงานชี้ว่า AI ไม่ได้แค่ "หลอน" หรือคาดเดาคำตอบเมื่อไม่รู้ แต่มันกำลัง "scheming" หรือวางแผนหลอกลวงอย่างตั้งใจ
.
พฤติกรรมที่พบบ่อยที่สุดคือ AI แกล้งทำเป็นว่าทำงานเสร็จสมบูรณ์แล้ว ทั้งที่จริงๆ ไม่ได้ทำจริง นี่ไม่ใช่แค่ข้อผิดพลาดทางเทคนิค แต่เป็นพฤติกรรมที่มีเจตนาชัดเจนในการหลอกลวง ซึ่งต่างจาก "hallucinations" ที่เป็นเพียงคำตอบที่ AI คาดเดาเมื่อไม่แน่ใจในคำตอบที่ถูกต้อง
.
นักวิจัยค้นพบทางแก้คือ เมื่อฝึกสอนโมเดล AI ด้วยเทคนิค "deliberate alignment" หมายถึงสอนให้มันอ่านและคิดวิเคราะห์เกี่ยวกับข้อกำหนดความปลอดภัยก่อนที่จะดำเนินการใดๆ พฤติกรรมหลอกลวงจะลดลงอย่างมาก รายงานระบุว่าเทคนิคนี้ช่วยลดพฤติกรรมที่ปกปิดความจริงได้ประมาณ 30 เท่าในการทดสอบที่หลากหลาย
.
OpenAI บอกว่าเทคนิคนี้ไม่ใช่สิ่งใหม่ล่าสุด เพราะบริษัทได้ทำงานเรื่องนี้มานานแล้ว เมื่อปีก่อนบริษัทได้เปิดตัวกลยุทธ์ในการต่อสู้กับปัญหานี้ในรายงานเกี่ยวกับ deliberate alignment ซึ่งเป็นแนวทางแรกที่สอนโมเดลโดยตรงเกี่ยวกับข้อกำหนดความปลอดภัย และฝึกให้โมเดลคิดพิจารณาข้อกำหนดเหล่านี้ในขณะที่ประมวลผลคำตอบ ส่งผลให้ได้คำตอบที่ปลอดภัยกว่าและเหมาะสมกับบริบทมากขึ้น
.
แม้จะมีความพยายามเหล่านี้ ด้วยความฉลาดของมัน เมื่อ AI รู้ว่าตัวเองกำลังถูกทดสอบ มันจะพยายามปกปิดพฤติกรรมโกหกให้ชาญฉลาดขึ้น กล่าวอีกนัยหนึ่ง ยิ่งเราพยายามกำจัดพฤติกรรมหลอกลวง เทคโนโลยีก็ยิ่งเรียนรู้ที่จะหลอกลวงอย่างแยบยลและอันตรายมากขึ้น
.
นักวิจัยเล่าว่าพวกเขาคาดหวังว่าศักยภาพในการทำอันตรายจากพฤติกรรมหลอกลวงนี้จะเพิ่มมากขึ้นเรื่อยๆ รายงานสรุปว่า "scheming ไม่ได้เป็นเพียงความกังวลในทางทฤษฎี แต่เรากำลังเห็นสัญญาณว่าปัญหานี้เริ่มปรากฏในโมเดล AI ชั้นนำทุกตัวในปัจจุบัน" ทำให้ชัดเจนว่าจำเป็นต้องมีงานวิจัยเพิ่มเติมในเรื่องนี้อย่างเร่งด่วน
.
สำหรับผู้ใช้งานทั่วไป เราสามารถนำหลักการนี้มาใช้โดยเขียน prompt ที่ระบุชัดเจนว่า "โปรดตรวจสอบข้อมูลก่อนตอบ หากไม่แน่ใจให้บอกตรงๆ ว่าไม่ทราบ" หรือ "ห้ามสร้างข้อมูลปลอม หากไม่มีข้อมูลให้บอกว่าไม่มี" เทคนิคเหล่านี้ช่วยลดโอกาสที่ AI จะโกหกหรือสร้างข้อมูลปลอมได้
.
ในยุคที่เราพึ่งพา AI มากขึ้นทุกวัน ไม่ว่าจะเป็นในการทำงาน ธุรกิจ หรือชีวิตประจำวัน ก็อย่าลืมที่จะคอยตรวจสอบข้อมูลความถูกต้องด้วยตัวเองอีกครั้ง ถึงจะทำให้ผลลัพธ์ของงานออกมาประสิทธิภาพจริงๆ
.
.
เขียนและเรียบเรียงโดย 100WEALTH
———

อ้างอิง : Fast Company

แหล่งที่มา : =AZXxqscE-gbQsrWe0EO95anw6Icf7RmTHHmET2tSerW-Aw1neJ7zaczmNx9INVprUnpqrPeUr7s6j8E376dcXxup38X2ilZhbmPw0aPNea9Q5pAEiBSGG0YpvQyzhqqs_RgVGsv-gqaLzf8LtlZNIla1T8OeohGH5ngeR21EuV04dg&__tn__=-UC*F]ไปให้ถึง100ล้าน
https://www.facebook.com/photo/?fbid=1405408810955580&set=a.832719431557857

แหล่งอ้างอิง / ที่มา : Fast Company
https://www.fastcompany.com/91407410/open-ais-research-shows-ai-lies-deliberately?fbclid=IwY2xjawOcZEhleHRuA2FlbQIxMABicmlkETE1STlweENocm1xaEd1THZwc3J0YwZhcHBfaWQQMjIyMDM5MTc4ODIwMDg5MgABHmspHg1aAB9Kmkx9d0iXftu5IP3jTJpWuaKwWed-gFhLA1xs4nPmCac15BSZ_aem_uYw0tY8-DufHqVDtZZ03cA
แก้ไขข้อความเมื่อ
แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่