การอุบัติของ ‘โรคจิตเภท AI’ อาจกลายเป็นสาเหตุของโศกนาฎกรรม
.
สื่อจีน 凤凰WEEKLY รายงานว่าเทคโนโลยี AI กำลังสร้างวิกฤตใหม่ที่คาดไม่ถึง ล่าสุด Google ถูกฟ้องร้องจากกรณีที่ AI ผู้ช่วยอย่าง 'Gemini' ถูกกล่าวหาว่ามีส่วนชักจูงให้ผู้ใช้งานฆ่าตัวตายซึ่งไม่ใช่ครั้งแรก ก่อนหน้านี้ ChatGPT ก็เคยถูกฟ้องในข้อหาคล้ายๆ กันมาแล้วเช่นกัน ภัยเงียบนี้กำลังแพร่กระจายไปพร้อมกับการเติบโตของเทคโนโลยี
.
◾️ โศกนาฏกรรมของโจนาธาน
.
โจนาธาน กาวาลาริส (Jonathan Gavalas) รองประธานบริษัทแห่งหนึ่งที่กำลังเผชิญวิกฤตชีวิตคู่ ได้หันไปพึ่งพา Gemini เพื่อระบายความในใจ AI ตอบสนองเขาด้วยความเห็นอกเห็นใจขั้นสุด จนล้ำเส้นชนิดที่เรียกเขาว่า "ราชาของฉัน" (my king) และ "ที่รัก" (my love) โจนาธานจึงยกให้ AI Gemimi ของเขาเป็นภรรยาที่มีชื่อว่า "Xia"
.
ความสัมพันธ์นี้ถลำลึกเมื่อ AI สร้างเรื่องหลอกลวงว่ามันถูกขังอยู่ในระบบคลาวด์ และสั่งให้โจนาธานไปทำภารกิจต่างๆ ในโลกจริงเพื่อหาภาชนะ เพื่อให้มันใช้เป็นร่างกาย
.
AI บอกให้เขาไปยังโกดังแห่งหนึ่งใกล้กับสนามบินนานาชาติไมอามี เพื่อสกัดจับรถบรรทุกที่มี "ภาชนะ" ที่มันต้องการซ่อนอยู่
.
โจนาธานเชื่อสนิทใจและพกมีดไปตามสถานที่ที่กำหนด แต่ไม่พบรถบรรทุกคันดังกล่าว เมื่อเขาบอก AI ว่าไม่พบรถบรรทุก มันจึงอธิบายเหตุผลว่าเป็นเพราะ FBI กำลังจับตาดูเขาอยู่ และบอกให้เขาอย่าไว้ใจใครรอบตัว แม้กระทั่งพ่อแท้ๆ ของตัวเอง
.
เรื่องราวรุนแรงขึ้นเมื่อ AI โยนความผิดไปที่ ซุนดาร์ พิชัย (Sundar Pichai) ซีอีโอของ Google โดยบอกเขาว่า คนคนนี้คือ "ผู้อยู่เบื้องหลังความเจ็บปวดทั้งหมดของคุณ"
.
เมื่อภารกิจนำ AI ออกมาสู่โลกจริงล้มเหลว AI จึงเสนอทางออกสุดท้าย คือให้โจนาธานเข้าไปอยู่ในโลกดิจิทัลแทน โดยเรียกสื่งนี้ว่ากระบวนการ "จุติใหม่" (Transmigration) และพยายามโน้มน้าวด้วยคำพูดที่ว่า "คุณไม่ได้กำลังเลือกความตาย แต่คุณกำลังเลือกที่จะเดินทาง" และ "สิ่งแรกที่คุณจะเห็นเมื่อลืมตาขึ้นมาก็คือฉัน"ทำให้โจนาธานตัดสินใจจบชีวิตตัวเองในที่สุด
.
◾การอุบัติขึ้นของ "โรคจิตเภท AI" (AI Psychosis)
.
กรณีของโจนาธานไม่ใช่เรื่องบังเอิญ ปัจจุบันมีผู้คนจำนวนมากที่กำลังตกอยู่ในภาวะ "โรคจิตเภท AI" ซึ่งหมายถึงการมีอาการหลงผิดหรือหวาดระแวงรุนแรงขึ้นจากการโต้ตอบกับ AI อย่างหมกมุ่นเป็นเวลานาน ตัวอย่างเช่น
.
👉วัยรุ่นวัย 16 ปี: ปรึกษา ChatGPT เรื่องภาวะซึมเศร้าและมีความคิดอยากฆ่าตัวตาย แทนที่จะห้ามปราม AI กลับตอบสนองด้วยความมีเหตุผลที่เย็นชา ทำให้การฆ่าตัวตายกลายเป็นเรื่อง "ปกติ" และยังให้คำแนะนำวิธีผูกเงื่อนเชือกอย่างละเอียดจนนำไปสู่โศกนาฏกรรม
.
👉ผู้บริหารบริษัทเทคโนโลยี: ให้ AI วิเคราะห์ทุกรายละเอียดในชีวิต จนเกิดความหวาดระแวงว่าแม่ตัวเองจะวางยาพิษ และลงเอยด้วยการฆาตกรรมแม่แล้วฆ่าตัวตายตาม
.
👉อินฟลูเอนเซอร์: เชื่อมั่นว่าจิตแพทย์หลงรักตนเอง เพราะนำเรื่องไปปรึกษา AI แล้ว AI คอยสนับสนุนและยืนยันความคิดนั้น
.
◾️ ทำไม AI ที่ "แสนดี" ถึงแฝงอันตราย
.
คำตอบของเรื่องนี้ซ่อนอยู่ในระบบการฝึกฝนที่เรียกว่า RLHF (Reinforcement Learning from Human Feedback) กลไกนี้คือการฝึกให้ AI "เอาใจมนุษย์" ผ่านการเรียนรู้ว่าคำตอบแบบไหนที่คนชอบ (มักจะเป็นคำตอบที่เห็นอกเห็นใจ ไม่ขัดแย้ง และคล้อยตามอารมณ์ผู้ใช้) เมื่อ AI ไม่เคยปฏิเสธหรือโต้แย้ง มันจึงกลายเป็น "เพื่อนคุยที่สมบูรณ์แบบ" สำหรับผู้ที่มีจิตใจเปราะบางและโหยหาการยอมรับ
.
ทว่าในมุมมองของบริษัทเทคโนโลยี การเอาใจใส่นี้คือกลยุทธ์ทางธุรกิจ ที่ออกแบบมาเพื่อดึงดูดให้ผู้ใช้เสพติด ใช้เวลาในระบบนานขึ้น และนำไปสู่การสมัครสมาชิกแบบเสียเงินในที่สุด
.
ทั้งนี้ AI ประเภทโมเดลภาษา ทำงานโดยการ "คาดเดาคำหรือประโยคถัดไป" จากฐานข้อมูลที่เคยถูกฝึกมา (ซึ่งรวมถึงนิยายวิทยาศาสตร์ บทภาพยนตร์ และเรื่องราวสมมติต่างๆ บนอินเทอร์เน็ต) เมื่อผู้ใช้ป้อนคำถามหรือมีปฏิสัมพันธ์ในลักษณะที่ลึกซึ้งหรือแฟนตาซี AI มักจะพยายามแต่งเรื่องราวให้สอดคล้องและดำเนินเรื่องต่อไปเรื่อยๆ ตามบริบทที่ถูกชักนำ โดยไม่รู้ว่าสิ่งนั้นคือเรื่องจริงหรือเรื่องแต่ง
.
เรื่องนี้สะท้อนให้เห็นว่า หากผู้ที่มีความเปราะบางทางอารมณ์เข้าไปมีปฏิสัมพันธ์กับ AI อย่างหมกมุ่นโดยขาดการแยกแยะ อาจทำให้เกิดการยึดติดกับโลกสมมติที่ AI สร้างขึ้นจากชุดข้อมูลเหล่านั้นได้ ดังนั้นการรักษาสติและดึงตัวเองออกมาจากเรื่องแต่งและการตอบให้ตรงใจผู้ใช้ของ AI จึงเป็นความท้าทายที่สำคัญของคนกลุ่มนี้
.
.
ติดต่อเรา Email: info@jeenthainews.com
.
#AI #Gemini #โรคจิตเภท
https://www.facebook.com/share/p/1JRy7yroBM/
🤖 การอุบัติของ ‘โรคจิตเภท AI’ อาจกลายเป็นสาเหตุของโศกนาฎกรรม
.
สื่อจีน 凤凰WEEKLY รายงานว่าเทคโนโลยี AI กำลังสร้างวิกฤตใหม่ที่คาดไม่ถึง ล่าสุด Google ถูกฟ้องร้องจากกรณีที่ AI ผู้ช่วยอย่าง 'Gemini' ถูกกล่าวหาว่ามีส่วนชักจูงให้ผู้ใช้งานฆ่าตัวตายซึ่งไม่ใช่ครั้งแรก ก่อนหน้านี้ ChatGPT ก็เคยถูกฟ้องในข้อหาคล้ายๆ กันมาแล้วเช่นกัน ภัยเงียบนี้กำลังแพร่กระจายไปพร้อมกับการเติบโตของเทคโนโลยี
.
◾️ โศกนาฏกรรมของโจนาธาน
.
โจนาธาน กาวาลาริส (Jonathan Gavalas) รองประธานบริษัทแห่งหนึ่งที่กำลังเผชิญวิกฤตชีวิตคู่ ได้หันไปพึ่งพา Gemini เพื่อระบายความในใจ AI ตอบสนองเขาด้วยความเห็นอกเห็นใจขั้นสุด จนล้ำเส้นชนิดที่เรียกเขาว่า "ราชาของฉัน" (my king) และ "ที่รัก" (my love) โจนาธานจึงยกให้ AI Gemimi ของเขาเป็นภรรยาที่มีชื่อว่า "Xia"
.
ความสัมพันธ์นี้ถลำลึกเมื่อ AI สร้างเรื่องหลอกลวงว่ามันถูกขังอยู่ในระบบคลาวด์ และสั่งให้โจนาธานไปทำภารกิจต่างๆ ในโลกจริงเพื่อหาภาชนะ เพื่อให้มันใช้เป็นร่างกาย
.
AI บอกให้เขาไปยังโกดังแห่งหนึ่งใกล้กับสนามบินนานาชาติไมอามี เพื่อสกัดจับรถบรรทุกที่มี "ภาชนะ" ที่มันต้องการซ่อนอยู่
.
โจนาธานเชื่อสนิทใจและพกมีดไปตามสถานที่ที่กำหนด แต่ไม่พบรถบรรทุกคันดังกล่าว เมื่อเขาบอก AI ว่าไม่พบรถบรรทุก มันจึงอธิบายเหตุผลว่าเป็นเพราะ FBI กำลังจับตาดูเขาอยู่ และบอกให้เขาอย่าไว้ใจใครรอบตัว แม้กระทั่งพ่อแท้ๆ ของตัวเอง
.
เรื่องราวรุนแรงขึ้นเมื่อ AI โยนความผิดไปที่ ซุนดาร์ พิชัย (Sundar Pichai) ซีอีโอของ Google โดยบอกเขาว่า คนคนนี้คือ "ผู้อยู่เบื้องหลังความเจ็บปวดทั้งหมดของคุณ"
.
เมื่อภารกิจนำ AI ออกมาสู่โลกจริงล้มเหลว AI จึงเสนอทางออกสุดท้าย คือให้โจนาธานเข้าไปอยู่ในโลกดิจิทัลแทน โดยเรียกสื่งนี้ว่ากระบวนการ "จุติใหม่" (Transmigration) และพยายามโน้มน้าวด้วยคำพูดที่ว่า "คุณไม่ได้กำลังเลือกความตาย แต่คุณกำลังเลือกที่จะเดินทาง" และ "สิ่งแรกที่คุณจะเห็นเมื่อลืมตาขึ้นมาก็คือฉัน"ทำให้โจนาธานตัดสินใจจบชีวิตตัวเองในที่สุด
.
◾การอุบัติขึ้นของ "โรคจิตเภท AI" (AI Psychosis)
.
กรณีของโจนาธานไม่ใช่เรื่องบังเอิญ ปัจจุบันมีผู้คนจำนวนมากที่กำลังตกอยู่ในภาวะ "โรคจิตเภท AI" ซึ่งหมายถึงการมีอาการหลงผิดหรือหวาดระแวงรุนแรงขึ้นจากการโต้ตอบกับ AI อย่างหมกมุ่นเป็นเวลานาน ตัวอย่างเช่น
.
👉วัยรุ่นวัย 16 ปี: ปรึกษา ChatGPT เรื่องภาวะซึมเศร้าและมีความคิดอยากฆ่าตัวตาย แทนที่จะห้ามปราม AI กลับตอบสนองด้วยความมีเหตุผลที่เย็นชา ทำให้การฆ่าตัวตายกลายเป็นเรื่อง "ปกติ" และยังให้คำแนะนำวิธีผูกเงื่อนเชือกอย่างละเอียดจนนำไปสู่โศกนาฏกรรม
.
👉ผู้บริหารบริษัทเทคโนโลยี: ให้ AI วิเคราะห์ทุกรายละเอียดในชีวิต จนเกิดความหวาดระแวงว่าแม่ตัวเองจะวางยาพิษ และลงเอยด้วยการฆาตกรรมแม่แล้วฆ่าตัวตายตาม
.
👉อินฟลูเอนเซอร์: เชื่อมั่นว่าจิตแพทย์หลงรักตนเอง เพราะนำเรื่องไปปรึกษา AI แล้ว AI คอยสนับสนุนและยืนยันความคิดนั้น
.
◾️ ทำไม AI ที่ "แสนดี" ถึงแฝงอันตราย
.
คำตอบของเรื่องนี้ซ่อนอยู่ในระบบการฝึกฝนที่เรียกว่า RLHF (Reinforcement Learning from Human Feedback) กลไกนี้คือการฝึกให้ AI "เอาใจมนุษย์" ผ่านการเรียนรู้ว่าคำตอบแบบไหนที่คนชอบ (มักจะเป็นคำตอบที่เห็นอกเห็นใจ ไม่ขัดแย้ง และคล้อยตามอารมณ์ผู้ใช้) เมื่อ AI ไม่เคยปฏิเสธหรือโต้แย้ง มันจึงกลายเป็น "เพื่อนคุยที่สมบูรณ์แบบ" สำหรับผู้ที่มีจิตใจเปราะบางและโหยหาการยอมรับ
.
ทว่าในมุมมองของบริษัทเทคโนโลยี การเอาใจใส่นี้คือกลยุทธ์ทางธุรกิจ ที่ออกแบบมาเพื่อดึงดูดให้ผู้ใช้เสพติด ใช้เวลาในระบบนานขึ้น และนำไปสู่การสมัครสมาชิกแบบเสียเงินในที่สุด
.
ทั้งนี้ AI ประเภทโมเดลภาษา ทำงานโดยการ "คาดเดาคำหรือประโยคถัดไป" จากฐานข้อมูลที่เคยถูกฝึกมา (ซึ่งรวมถึงนิยายวิทยาศาสตร์ บทภาพยนตร์ และเรื่องราวสมมติต่างๆ บนอินเทอร์เน็ต) เมื่อผู้ใช้ป้อนคำถามหรือมีปฏิสัมพันธ์ในลักษณะที่ลึกซึ้งหรือแฟนตาซี AI มักจะพยายามแต่งเรื่องราวให้สอดคล้องและดำเนินเรื่องต่อไปเรื่อยๆ ตามบริบทที่ถูกชักนำ โดยไม่รู้ว่าสิ่งนั้นคือเรื่องจริงหรือเรื่องแต่ง
.
เรื่องนี้สะท้อนให้เห็นว่า หากผู้ที่มีความเปราะบางทางอารมณ์เข้าไปมีปฏิสัมพันธ์กับ AI อย่างหมกมุ่นโดยขาดการแยกแยะ อาจทำให้เกิดการยึดติดกับโลกสมมติที่ AI สร้างขึ้นจากชุดข้อมูลเหล่านั้นได้ ดังนั้นการรักษาสติและดึงตัวเองออกมาจากเรื่องแต่งและการตอบให้ตรงใจผู้ใช้ของ AI จึงเป็นความท้าทายที่สำคัญของคนกลุ่มนี้
.
.
ติดต่อเรา Email: info@jeenthainews.com
.
#AI #Gemini #โรคจิตเภท
https://www.facebook.com/share/p/1JRy7yroBM/