บนเวทีงาน WWDC 2016 ที่ผ่านมา มีฟีเจอร์หนึ่งของ Apple ที่ชื่อว่า differential privacy ซึ่ง Matthew Green ผู้เชี่ยวชาญด้านการเข้ารหัสจากมหาวิทยาลัย John Hopkins ได้ออกมาตั้งคำถามกับ Apple เกี่ยวกับฟีเจอร์ดังกล่าว
ในงาน WWDC 2016 นั้น Craig Federighi ประธานฝ่ายซอฟต์แวร์ของ Apple กล่าวว่า differential privacy คือการศึกษาหัวข้อในด้านสถิติและวิจัยข้อมูลโดยใช้ hashing, subsampling และ noise injection เพื่อเปิดใช้งาน crowdsource learning แต่ยังคงทำให้ข้อมูลของผู้ใช้แต่ละคนเป็นส่วนตัวอยู่ (ซึ่ง Apple ใช้วิธีการทำให้ข้อมูลไม่สามารถระบุตัวตนของผู้ใช้ได้)
Federighi นั้นบอกถึง differential privacy นั้นเป็น "หัวข้อการวิจัย" ซึ่ง Green เห็นว่าสิ่งนี้อันตรายมาก โดย Green ได้ทวีตถึงเรื่องนี้หลายทวีต
ฝั่ง Apple อธิบาย differential privacy ในอีเมลที่ส่งถึง Gizmodo ว่าเทคโนโลยีนี้ช่วยในการค้นพบรูปแบบการใช้งานของผู้ใช้ขนาดใหญ่โดยไม่รบกวนความเป็นส่วนตัวของแต่ละคน โดย Apple จะใช้วิธีเพิ่มสิ่งรบวนทางคณิตศาสตรเข้าไปในตัวอย่างของรูปแบบการใช้งานของแต่ละคน ซึ่งถ้ารูปแบบการใช้งานของแต่ละคนเหมือน ๆ กันก็จะปรากฏออกมาเอง โดยสิ่งนี้จะช่วยปรับปรุงประสบการณ์ผู้ใช้ และใน iOS 10 เทคโนโลยีนี้ช่วยในการปรับปรุง QuickType, การแนะนำ emoji, แนะนำ deep link ใน Spotlight และ Lookup HInts ใน Notes
Green ได้ตั้งคำถามว่า ข้อมูลประเภทไหน และการวัดแบบไหนที่จะถูกนำมาใช้ และพวกเขาทำอะไรกับมันบ้าง ซึ่ง Green บอกว่ามันดูเป็นไอเดียที่ดีแต่ยังไม่เห็นว่ามันได้ปรับใช้ยังไง และมันคงจบด้วยการแลกเปลี่ยนระหว่างความแม่นยำของข้อมูลที่ถูกเก็บไปกับความเป็นส่วนตัว
นอกจากนี้ Green ยังบอกว่าเมื่อความแม่นยำลดลง ความเป็นส่วนตัวก็จะสูงขึ้น และการแลกเปลี่ยนที่เขาเคยเห็นเหล่านี้ไม่เคยมีอันไหนที่ดีเยี่ยมเลย และเขายังไม่เคยเห็นว่าใครได้นำมันมาใช้บนผลิตภัณฑ์จริง ๆ ซึ่งถ้า Apple ทำแบบนี้ก็คือการ implement เองและตัดสินใจเอง
Gizmodo ให้ความเห็นว่าฟีเจอร์นี้ยังไม่สามารถฟันธงแน่นอนว่าจะสามารถปกป้องความเป็นส่วนตัวได้จริงจนกว่า Apple จะให้รายละเอียดเพิ่มเติมว่ามันทำงานอย่างไร
ที่มา - Gizmodo
Comments
ให้รายละเอียดไปเธอก็คายได้นะสิ
ใครเขาจะบอกล่ะ คิดสิๆ
Security ไม่เคยได้มาเพราะการไม่เผยแพร่
สิ่งรบวน ?
คณิตศาสตร => คณิตศาสตร์