สำนักข่าว Reuters อ้างแหล่งข่าวภายในพนักงาน Alphabet บริษัทแม่ของกูเกิล 4 คน ยืนยันว่าบริษัทได้ให้คำแนะนำกับพนักงาน ระมัดระวังการใช้งานแชตบอท AI ทุกชนิด ซึ่งรวมทั้ง Bard แชตบอทของบริษัทด้วย ไม่ให้ป้อนข้อมูลที่เป็นความลับของบริษัทลงไป ซึ่งถือเป็นนโยบายพื้นฐานอยู่แล้วในการดูแลควบคุมข้อมูลภายใน
นอกจากข้อมูลที่เป็นความลับบริษัท Alphabet ยังเตือนวิศวกรให้เลี่ยงการนำโค้ดที่ถูกเขียนโดยแชตบอทไปใช้งาน ซึ่งเป็นหนึ่งในความสามารถของแชตบอท AI ที่ได้รับความนิยม
ประกาศภายในของกูเกิลนี้ไม่ใช่เรื่องใหม่แต่อย่างใด หลายบริษัทได้ออกคำเตือนหรือห้ามพนักงานในการใช้งานแชตบอท AI เพื่อป้องกันปัญหาข้อมูลรั่วไหล ไม่ว่าจะเป็น ซัมซุง อเมซอน หรือ แอปเปิล ขณะที่กูเกิลเองก็ขึ้นคำแนะนำในการใช้งานแชตบอท Bard สำหรับผู้ใช้งานทั่วไปด้วยว่าอย่าป้อนข้อมูลที่เป็นความลับในการสนทนา
ที่มา: Reuters
Comments
ถ้ากลัวขนาดนี้แล้วจะรีบออกมาเป็นผลิตภัณฑ์ให้ลูกค้าใช้ทำไม ขนาดคนพัฒนาเองยังไม่มั้นใจเลย
คุณเข้าใจอะไรผิดแน่ๆ ครับ
องค์กรขนาดใหญ่จำนวนมากมีนโยบายห้ามนำข้อมูลภายในออกภายนอกโดยไม่ได้รับอนุญาตเลยแม้แต่น้อยครับ ประเภทไปสมัคร LINE คุยงานในบริษัทกันเองนี่ห้ามเด็ดขาดมีความผิด ถ้าจะใช้งาน IT ต้องตรวจสอบมาแล้วว่าข้อตกลงการใช้งานโอเค หรือซื้อใช้งานเป็นทางการ
บริการพวก Chatbot ส่วนมากเป็นโครงการทดลองวิจัย คนให้บริการมักขอข้อมูลไปฝึกปัญญาประดิษฐ์ต่อ พวกนี้ห้ามใช้งานแน่ๆ แต่เขาต้องออกมาเตือนเพราะบริการพวกนี้มันสะดวก และไม่มีบริการแบบเดียวกันที่ในองค์กรเตรียมไว้ให้
lewcpe.com , @wasonliw
ผลิตภัณฑ์ส่วนใหญ่ ที่มีการ Search หรือรับส่งข้อมูล มันมี Term of use อยู่แล้วนะครับแต่จะมีใครใส่ใจอ่านสักกี่คน
ข้าขอทรยศต่อคนทั้งโลก ดีกว่าให้ใครมาทรยศข้า
ข้อมูลรั่วไหลในที่นี้หมายถึง ข้อมูลที่ป้อนใหม่เข้าไปจะถูกนำไปเรียนรู้ และอาจถูกเผยแพร่ออกไปเวลาคนอื่นใช้งานครับ
ไม่ได้ถึงหมายถึงรั่วไหลแบบทำหลุดแชทรั่วอะไรแบบนั้น ไม่ใช่กลัวหรือไม่มั่นใจ แต่มันเป็น by design ครับ (พูดในทางกลับกันก็คือมั่นใจด้วยซ้ำ)
ไม่รีบออกก็ไม่ได้อีกเพราะไม่งั้นหุ้นตกเพราะกลายเป็น ChatGPT ไม่มีคู่แข่งอีก
แต่เอามาใช้ช่วยเขียนโปรแกรมมันแจ่มจริงๆ นะลดเวลาการท่อง Stackoverflow ได้มหาศาล
แค่ป้อน Logic ให้ระบบทราบ Code สวยๆ ก็โผล่ออกมา
?