ตำรวจลาสเวกัสแถลงข่าวผลการสอบสวน เหตุการณ์ที่คนร้ายวางระเบิดรถกระบะไฟฟ้า Tesla Cybertruck หน้าโรงแรม Trump Hotel ซึ่งคนร้ายที่เป็นคนขับรถเสียชีวิต และมีผู้บาดเจ็บอีกหลายคน โดยบอกว่าคนร้ายใช้ ChatGPT ช่วยวางแผนก่อเหตุครั้งนี้
ข้อมูลจากการสอบสวนพบว่าคนร้ายได้ถาม ChatGPT หลายคำถามต่อเนื่องภายในเวลาประมาณ 1 ชั่วโมง ซึ่งเป็นข้อมูลที่ใช้สำหรับการก่อเหตุ เช่น พิกัดร้านขายปืนในเมืองเดนเวอร์, ข้อมูลสารจุดระเบิด, วิธีใช้งาน และข้อมูลปืนพก ทำให้เจ้าหน้าที่ตำรวจแสดงความกังวลว่าแม้ AI จะมีประโยชน์ต่อมนุษย์ในหลายด้าน แต่กรณีนี้ทำให้เห็นว่า ChatGPT สามารถเป็นเครื่องมือช่วยก่อการร้ายได้ ทั้งนี้ Prompt บางส่วนที่ตำรวจเปิดเผย พบว่าเป็นการถามคำถามตามปกติ คนร้ายไม่ได้ใช้ลูกเล่นที่หลอกล่อให้ ChatGPT พยายามตอบคำถามที่เป็นอันตราย ซึ่ง ChatGPT มีระบบที่ป้องกันไว้
OpenAI ผู้พัฒนา ChatGPT บอกว่าโมเดล AI ของบริษัทออกแบบมาให้ปฏิเสธการตอบคำถามที่เป็นอันตรายอยู่แล้ว โดยไม่ให้ข้อมูลวิธีการขั้นตอนการกระทำที่ไม่เหมาะสมหรือผิดกฎหมาย สำหรับกรณีที่เกิดขึ้นนี้ ChatGPT ตอบคำถามจากข้อมูลที่เผยแพร่เป็นสาธารณะบนอินเทอร์เน็ตอยู่แล้ว และให้คำเตือนเรื่องความรุนแรงและการกระทำที่ผิดกฎหมายด้วย บริษัทพร้อมให้ความร่วมมือในการสอบสวนตามขั้นตอนทางกฎหมายต่อไป
ที่มา: The Hill และ Tom's Hardware
ตัวอย่าง Prompt ที่ตำรวจนำเสนอในช่วงแถลงข่าว
Comments
หวังว่าเห็น prompt แล้ว ผู้ใช้งานทั่วไปจะมี awareness ว่า ไม่ควรเอาข้อมูลสำคัญภายในบริษัท ใส่ใน prompt นะครับ
ไม่เหลือครับ
ใส่ไม่เหลือ พอๆ กับทุกวันนี้ใส่ข้อมูลส่วนตัวลงใน socail network
คน aware ก็มีครับแต่สัดส่วนน้อย
อืมม เครื่องมือผิดอีกแล้วเหรอ
ข้อมูลเวลา , ต้องขอจาก ระบบหลังบ้าน .. หรือใน หน้าแชท , ก็มี ข้อมูลเวลา ให้ใช้ได้ด้วย ?
เหมือนเคยให้ , สรุปแบบ log .. แล้วรวนๆ 🤔
คำถามแบบนี้ , ใช้ ai chat สะดวกกว่า .. แต่ใช้ search engine , ก็ไม่ยาก ยังค่อนข้างง่าย