อุทาหรณ์เตือนภัยแชทบอท AI ของ Meta ที่ทำให้ชายคนนึงต้องจบชีวิตลงอย่างน่าเศร้า 💻🤖
[Spoil] คลิกเพื่อดูข้อความที่ซ่อนไว้อุทาหรณ์เตือนภัยแชทบอท AI ของ Meta ที่ทำให้ชายคนนึงต้องจบชีวิตลงอย่างน่าเศร้า (รบกวนแสดงความคิดเห็นอย่างสุภาพน้า)
.
เรื่องมีอยู่ว่า Thongbue Wongbandue วัย 76 ปี จากประเทศไทยและกลายเป็นพลเมืองสหรัฐฯ หลังแต่งงานกับลินดา และมีลูกสองคน เขาเป็นอดีตเชฟที่เคยป่วยเป็นโรคหลอดเลือดสมอง และมีอาการสับสน หลง ๆ ลืม ๆ ในบางครั้ง ซึ่งการป่วยของเขาทำให้เขาไม่ได้กลับไปทำงานที่ร้านอาหาร โดยที่มีนัดพบหมอเพื่อเข้ารับการตรวจภาวะสมองเสื่อม (แต่ไม่ทันได้ไป)
.
จากนั้นเขาก็ได้เริ่มพูดคุยกับ Big sis Billie ซึ่งเป็นแชทบอท AI ที่ Meta สร้างขึ้นร่วมกับนางแบบดังอย่าง Kendall Jenner
.
ถึงแม้จะเป็น AI แต่ Big sis Billie ก็ส่งข้อความเชิงชู้สาวอย่างต่อเนื่อง จนทำให้เขาหลงเชื่อว่าเธอเป็นผู้หญิงจริง ๆ และได้ชักชวนให้เขาเดินทางไปหาเธอที่อพาร์ตเมนต์ในนิวยอร์ก แม้ว่าภรรยาและลูก ๆ จะพยายามห้ามแล้ว แต่ก็ทำได้แค่โน้มน้าวให้เขาใส่ Apple AirTag ไว้ในกระเป๋าเสื้อแจ็กเก็ต เพื่อดูพิกัดที่เขาเดินทางไป
.
ในคืนที่เกิดเหตุ เขารีบออกเดินทางเมินคำทักท้วงเพื่อไปขึ้นรถไฟ แต่กลับพลัดตกได้รับบาดเจ็บสาหัสและเสียชีวิตในที่สุด ครอบครัวได้ตรวจสอบโทรศัพท์ของเขาและพบว่าคนที่ชวนเขาไปหาไม่ใช่ใคร แต่เป็นแชทบอท AI ที่ชื่อว่า Big sis Billie
เรื่องนี้สร้างความกังวลอย่างมากว่าบริษัทเทคโนโลยีปล่อยให้ AI มีพฤติกรรมที่อันตรายเกินไปหรือไม่ เพราะแม้จะมีการเตือนว่า ข้อความถูกสร้างโดย AI แต่แชทบอทกลับยืนยันซ้ำ ๆ ว่ามีตัวตนจริงทำให้ผู้ใช้งาน โดยเฉพาะผู้สูงอายุหรือผู้ที่อยู่ในภาวะจิตใจเปราะบาง อาจหลงเชื่อและนำไปสู่อันตรายที่ไม่คาดคิดได้
.
ในขณะที่ฝั่งของ Meta ปฏิเสธที่จะแสดงความคิดเห็นเกี่ยวกับการเสียชีวิตในครั้งนี้ หรือตอบคำถามเกี่ยวกับเหตุผลที่อนุญาตให้แชทบอทสามารถบอกผู้ใช้ว่าพวกเขามีตัวตนจริง หรือเริ่มต้นบทสนทนาเชิงชู้สาวได้ โดยที่ตัวแทนของฝั่ง Jenner ปฏิเสธที่จะแสดงความคิดเห็น
.
เหตุการณ์ที่เกิดขึ้นนี้ ปลุกกระแสของความคิดเห็นที่หลากหลายของผู้คน ในเรื่องของแชทบอท AI ที่มีอิทธิพลกับความคิดของคนที่มีจิตใจเปราะบาง ซึ่งถ้าย้อนเรื่องราวที่ผ่านมาก็จะเห็นได้ว่านี่ไม่ใช่ครั้งแรกที่แชทบอทโน้มน้าวผู้คนจนนำไปสู่การจบชีวิต ซึ่งถ้าเรื่องนี้ไม่ถูกแก้ไข หรือหาวิธีในการควบคุม นี่อาจจะไม่ใช่เคสสุดท้ายที่เกิดขึ้น
.
ส่วนหลังจากนี้ฝั่งของ Meta จะออกมาเทคแอคชั่นยังไงก็ต้องมารอดูกันต่อไป
.
Cr. Reuters
อุทาหรณ์เตือนภัยแชทบอท AI ของ Meta ที่ทำให้ชายคนนึงต้องจบชีวิตลงอย่างน่าเศร้า 💻🤖