เราเห็นกรณีการนำเสนอข้อมูลปลอมจาก ChatGPT อยู่บ่อยครั้ง แต่ครั้งนี้น่าจะเป็นครั้งแรกๆ ถึงผลกระทบจากข้อมูลปลอมจาก ChatGPT ในอาชีพการงาน เมื่อ Steven Schwartz ทนายความสหรัฐ ใช้ข้อมูลคดีปลอมและโควทปลอม เป็นข้อมูลในชั้นศาล
Steven Schwartz ว่าความให้ Roberto Mata ฟ้องร้องเรียกค่าเสียหายกับสายการบิน Avianca ของโคลอมเบีย จากอาการบาดเจ็บบนเครื่องที่เกิดเมื่อปี 2019 โดยทนายใช้ข้อมูลคดีและคำตัดสินจาก ChatGPT ทั้งหมด 6 คดี รวมถึงโควทและข้อมูลอ้างอิงจากการสืบสวนคดีดังกล่าว เป็นคดีอ้างอิงในชั้นศาล ก่อนที่ผู้พิพากษาจะพบว่า ข้อมูลดังกล่าวเป็นของปลอม
Schwartz อ้างว่าไม่รู้ว่าข้อมูลจาก ChatGPT จะเป็นของปลอม ตอนนี้เขาถูก sanction ไปแล้วและต้องรอคำตัดสินจากสภาทนายความอีกครั้งว่าจะถูกลงโทษอย่างไร
ที่มา - QZ
Comments
ลิงก์บทความต้นฉบับผิดหรือเปล่าครับ
ขอบคุณครับ
เอิ่ม ที่มา น่าจะชี้ไปผิดข่าวนะ
โดน AI หลอก
นั่นไงสิ่งที่เคยแสดงความเห็นไปในข่าวก่อนๆวันนี้เกิดขึ้นจริงแล้ว AI มันเนียนถ้าเอาข้อมูลไปใช้โดยไม่ตรวจสอบหรือไม่ฉลาดกว่ามันก็จะเป็นเหมือนคุณคนนี้
เข้าใจเลย 55
เคยถาม gpt หลายคำถาม แล้วไปเช็คข้อมูลอีกที หลายๆ อย่างมันตอบแบบมั่นใจเอามากๆ ทั้งที่ข้อมูลมันผิด
เสียการเสียงานเพราะ AI
ผมว่าเหตุผลที่บริษัทไอทีต่าง ๆ แบน ChatGPT ไม่น่าจะใช่เพราะว่ากลัวความลับรั่วไหลอย่างเดียวแล้วล่ะ...