แอปเปิลเพิ่มเอกสารคำถามพบบ่อย สำหรับระบบสแกนภาพโป๊เด็กบน iPhone และ iPad โดยตอบประเด็นที่ถูกวิจารณ์หลายประเด็น ได้แก่
- แอปเปิลจะสแกนภาพทุกภาพในโทรศัพท์หรือไม่: แอปเปลยืนยันว่าจะสแกนเฉพาะภาพที่กำลังอัปโหลดขึ้น iCloud Photos เท่านั้น และระบบจะไม่ทำงานหากปิดการทำงาน iCloud Photos ทิ้ง
- ระบบนี้ใช้ตรวจสอบภาพแบบอื่นได้หรือไม่: แอปเปิลยืนยันว่าจะรับแฮชภาพที่เข้าข่ายจากองค์กรที่ทำงานด้านความปลอดภัยเด็กเท่านั้น และจะไม่มีการแจ้งเจ้าหน้าที่รัฐโดยอัตโนมัติ แต่เจ้าหน้าที่ของแอปเปิลจะตรวจสอบซ้ำเสมอ
- จะทำอย่างไรหากรัฐบาลบังคับให้ค้นภาพชนิดอื่น: แอปเปิลยืนยันว่าจะปฎิเสธคำขอจากรัฐบาลต่างๆ ให้ตรวจสอบภาพแบบอื่น และยืนยันว่าที่ผ่านมา ต่อสู้กับคำขอของรัฐบาลที่จะให้ช่วยลดความเป็นส่วนตัวผู้ใช้
ประเด็นต่างๆ ในเอกสารนี้เป็นการย้ำข้อความในเอกสารที่แอปเปิลเคยแจ้งมาก่อนแล้วในวันเปิดตัวระบบนี้ แต่น่าสังเกตว่าแอปเปิลย้ำถึงการต่อสู้กับ FBI ที่สั่งให้แอปเปิลทำรอมปลดล็อกโทรศัพท์เพื่อสอบสวนคดี แต่ แอปเปิลกลับยอมย้ายข้อมูล iCloud ของลูกค้าในจีนออกไปยังเซิร์ฟเวอร์ของบริษัทภายนอกตามคำสั่งรัฐบาลจีน โดยไม่โต้แย้งอะไร หรือบางกรณีเช่นก่อนหน้านี้แอปเปิล เคยไม่เปิดบริการ FaceTime ในซาอุดิอาระเบีย, ปากีสถาน, และสหรัฐอาหรับเอมิเรตส์ แม้ว่าจะปล่อยอัพเดตเพิ่มบริการมาในบางประเทศภายหลัง
ที่มา - Apple
Comments
อ่านแล้ว เป็นระบบที่ไร้สาระกว่าเดิม ทำให้คนมาด่าเล่นๆ เพราะ สุดท้ายคนร้ายจริงๆ ก็แค่กดซ่อนรูป ไม่ให้ อัพขึ้น iCloud มันก็จบแล้วแล้วการที่บอกว่า apple ไม่รับรู้เรื่อง hash เกิด หน่วยงานรัฐไปกดดัน ที่หน่วยงานทำ hash รูปหล่ะ ก็จบเห่แล้ว
เริ่มงงกับระบบโทรศัพท์ซื้อมาเริ่มมีผู้ช่วยหลังๆกลายเป็นผู้ตรวจการอีกหน่อยคงกลายเป็นผู้พิพากษา แต่เดียวก่อนลืมจุดประสงค์ของ(เจ้าของ)ไปหรือป่าวต้องการซื้อโทรศัพท์ที่มีเทคโนโลยีที่คุณคิดค้นมาใช้งานแต่จะกลายเป็นถูกคุมความประพฤติอยู่ตลอดเวลามันก็แปลกๆนะ (ไม่ได้หมายถึงประเด็นเรื่องภาพโป๊เด็กเพียงอย่างเดียวครับ)ดูเหมือนมันจะต่อยอดไปได้อีกเพราะถ้ารูปในเครื่องโดนตรวจได้อะไรๆก็คงไม่เหลือ
แวบแรกที่ผมเห็นฟีเจอร์นี้ ผมมองว่าถ้าแค่ iCloud อย่างเดียวมันแทบไม่มีประโยชน์อะไรเลย
เพราะงั้นผมถึงเชื่อว่า iCloud มันเป็นแค่นำร่องแอปแรกก่อน และอนาคต Apple มีแผนจะขยายจุดแสกนไปที่อื่นๆแน่นอน ส่วนองค์กรหรือรูปประเภทอื่น ถ้าจะเพิ่มมันหาข้ออ้างมาอ้างเพิ่มได้ทั้งนั้น (แบบที่อ้างในครั้งนี้)
ดังนั้นถึงจะบอกว่า "แค่ iCloud" ผมก็ไม่เอาอยู่ดี
เห็นในเอกสารระบุว่า "evolve and expand over time" อันนี้น่าสงสัย
Shhh!
ผมไม่ได้ Backup รูปไว้บน iCloud อะแต่ผมใช้ My Photo Stream เพื่อแชร์รูประหว่าง iDevice ด้วยกัน
อย่างงี้ผมจะโดน Scan ด้วยไหมอะ
ผมสงสัยว่าค่าแฮชของไฟล์มันจะเปลี่ยนได้ไหม หากทำต่อไปนี้...
- Resize ภาพ แล้วเซฟไฟล์ (เช่น ลดขนาดไป 1 พิเซล แล้วเซฟ)
- เซฟไฟล์เป็นฟอร์แมตอื่น (เช่น เดิมเป็น .jpg แล้วเซฟเป็น .png)
- เขียนอะไรก็ได้ลงภาพ แล้วเซฟไฟล์ทับ (เช่น เขียนอะไรเล็กๆ น้อยๆ แล้วเซฟในฟอร์แมตเดิม)
- ลดความละเอียดของภาพ แล้วเซฟไฟล์ทับ (เช่น เดิม JPG100% ลดเหลือ JPG90% แล้วเซฟ)
ถ้ามีผล การสแกนค่าแฮชจะมีผลหรือ? ..หรือ Apple มีวิธีสำรองอย่างการค้นหาภาพที่เหมือนหรือคล้ายกันหรือเปล่า? (เหมือนกับที่ค้นหาด้วยการอัปโหลดรูปภาพ แล้ว Google แสดงรูปภาพที่มีลักษณ์เหมือนหรือคล้ายกันมาหมดเลย)
ค่าแฮชที่ได้ขึ้นกับวิธีคำนวณ(อัลกอริทึม)ครับที่เราเห็นขยับ 1 pixel แล้วค่าแฮชเปลี่ยนเยอะ เพราะเราต้องการตรวจสอบว่าไฟล์ตรงกัน 100% ไหม
แต่ถ้าเน้นให้ ML ตรวจง่าย จะคำนวณอีกแบบก็ได้
NeuralHash มันเก่งกว่านั้นครับ ถ้าภาพโดยรวมๆ ยังเหมือนเดิมอยู่ก็ยังเทียบได้
lewcpe.com , @wasonliw
ผมกังวลอยู่อย่างหนึ่ง เราสามารถนำ hash model ของภาพมา reverse engineering ให้มันกลับไปเป็นรูปต้นฉบับ (หรือใกล้เคียง) ได้หรือไม่ หรือว่าเทคนิค ML ส่วนมากที่ใช้กับรูปภาพนั้นจัดเก็บเฉพาะ fingerprint ของรูปภาพเท่านั้น
อ่านจากเอกสารเหมือนว่าไม่ได้
แต่ที่สงสัยคือใช้คนตรวจ แสดงว่า apple ต้องมีรูปต้นฉบับ?ถ้าไม่มีแล้วจะยืนยันได้ยังไงว่ามันใช่หรือไม่ใช่ มีแต่ hash มันจะไปการันตี 100% ว่าใช่ได้ยังไง
ผมว่าทางแอปเปิลน่าจะมีโมเดลที่เทรนมาแล้วสำหรับการหาประเภทของรูปที่ต้องการ (แปลว่ามีการเทรนกับรูปนั้นมาจริงๆ) ส่วนถ้าตรวจเจอหรือสงสัยว่าจะมี flag ทิ้งไว้แล้วแอปเปิลน่าจะเข้าไปดูรูปที่โดน flag ไว้ได้มั้งครับ
The Dream hacker..
มันมีอยู่ 2 ประเด็น
ประเด็นแรกคือตอนรับเอาค่า Hash มาใช้ตรวจ Apple ไม่มีทางรู้เลยว่าค่า Hash ที่ได้รับมาเป็นภาพอะไร แต่ Apple จะรับมาแค่จาก trusted source เท่านั้น ตามบทความเห็นบอกว่าจะตรวจสอบค่า Hash ก่อน แต่ก็ไม่รู้เหมือนกันว่าจะตรวจสอบยังไงว่าไม่มีรูปอื่นแอบแฝง
อีกประเด็นคือตอนตรวจเวลามีคน match เกินค่าที่กำหนด ซึ่ง Apple จะเข้ามาดูรูปที่ match ตรงใน iCloud ของเรา ส่วนตัวผมคิดว่า Apple ไม่จำเป็นต้องรู้ว่าต้นฉบับคืออะไร แค่ดูว่ารูปที่ match มันเข้าข่าย child porn หรือเปล่าแค่นั้นก็น่าจะส่งข้อมูลให้เจ้าหน้าที่ต่อได้เลยครับ (เพราะต่อให้ไม่ตรงแต่ถ้าเป็น child porn ก็ผิดอยู่ดี)
รูปต้นฉบับมาจากฐานข้อมูล CSAM เป็นรูปที่รู้กันอยู่แล้วว่าเป็น child porn / sexual abuse
ดังนั้นจึงกลัวกันว่า เกิด CSAM ถูกเพิ่มภาพอื่นๆเข้าไปเช่นคนที่รัฐสงสัยว่าเป็นผู้ก่อการร้าย ระบบของ Apple ก็จะสแกนให้เลย
hash เป็นเหมือนลายเซ็นเฉพาะของข้อมูลตัวนั้นเฉย ๆ ครับ
ชอบคำอธิบายนี้มากๆ เลยครับ
เอาระดับใกล้เคียงนี่เป็นไปไม่ได้ครับ เพราะข้อมูลแฮชมีขนาดเล็กมาก ไม่กี่ร้อยบิตเท่านั้น
แต่ในกรณี NeuralHash มันเป็นการ "บรรยายภาพ" ด้วยภาษาเฉพาะที่ใช้โมเดลปัญญาประดิษฐ์ย่อยภาพออกมา หากจะทำ reverse engineer ย้อนออกมาให้พอ "เห็นลางๆ" ว่าเป็นภาพอะไรนี่น่าจะเป็นไปได้
lewcpe.com , @wasonliw
สัญญาปากเปล่าจากบริษัทไอที เชื่อไม่ได้หรอก เหมือนรับปากว่าจะได้อัพเดต รับปากว่าจะซ่อมง่าย ต้องวางเงินก่อนแล้วเขียนเงื่อนไขว่าผิดสัญญา ริบเงินนั่นล่ะ จึงจะเชื่อได้
ขาอวยเข้าประจำหายไปไหนกันหมดนะ
มีขาอวยด้วยหรอครับ เห็นมีแต่ขาแซะเต็มไปหมด
ถ้าขาแซะเจ้าประจำจะเห็นง่ายกว่าครับ
ควรจะให้โอกาสดีมั้ย หรือควรขายทิ้งดี และถ้าขายทิ้ง ควรจะไปยี่ห้อไหน
แค่มนุษย์คนนึงที่อยากรู้เกี่ยวกับวงการไอที
ปัก รอหายี่ห้อใหม่ครับ
ผมคิดไว้ในหัวอยู่ 3-4 ยี่ห้อครับ เพราะตัวเลือกในไทยมันมีไม่เยอะ O, SS, V, X ส่วน S อารยธรรมผมไม่เอา
แค่มนุษย์คนนึงที่อยากรู้เกี่ยวกับวงการไอที
หนีไม่พ้น ใช้ยี่ห้อเดิมแล้วไปใช้ cloud เจ้าอื่นน่าจะดีกว่า
ถ้า iCloud ผ่าน ผมว่ายังไงมันก็ต้องขยายไปแสกนที่อื่นแน่ๆครับ เพราะดักแค่ iCloud ที่เดียวมันแทบไม่มีประโยชน์อะไร ดังนั้นถ้าจะหนีก็รีบหนีแต่เนิ่นๆจะดีกว่าครับ
จะหนีไปไหนครับ
พอAppleทำสำเร็จ เดี๋ยวเจ้าอื่นก็โพสต์บลัฟ หลังจากนั้นก็ทำตาม พร้อมกับลบโพสต์ที่เคยบลัฟไว้
คือพอเห็นสิ่งที่ยอมทำให้จีนแล้วก็รู้สึกว่าเชื่อพี่ไม่ได้อะ 555
ผมว่ามันตลกสุดๆ คนมันจะเก็บ cp จริง ใครมันจะไปเก็บบน iCloudเหมือนใช้เป็นทางผ่านหาทางแสกนรูปทำ Big Data ฟรีๆ
ข้อที่บอกว่าจะปฏิเสธคำขอจากรัฐบาลอื่น
พอมาประกอบกับข่าวที่ออสเตรเลียจะออกกฎหมายนี้แล้ว
https://www.blognone.com/node/124134
ก็น่าจับตาว่า Apple จะมีท่าทียังไง?
ลองอ่านรายละเอียดดูแล้วกลายเป็นแย่ยิ่งกว่าเดิม คนที่มี CSAM อยู่บนเครื่องจริงๆแค่ disable backup ของ I-cloud ก็รอดแล้ว ส่วนคนไม่รู้อีโหน่อีเหน่ไม่ทำได้ทำผิดอะไร โดนแอบแสกนเครื่องให้เปลืองแบตเปลืองไฟฟรีๆไม่มีประโยชน์แล้วยังอันตรายต่อ privacy ด้วย ไร้สาระสุดๆ
คนไม่รู้อิโหน่อิเหน่ถ้าเปิดอัพคลาวมันก็เปลืองแบตทุกคนไม่ส่าจะมีระบบนี้มั๊ยและต่อให้มีระบบนี้เค้าก็สแกนรูปที่ถูกส่งขึ้นไม่ได้ใช้cpu เครื่องสแกนจะเปลืองแบตเพิ่มตรงไหน?
ค่าตั้งต้นมันถูกตั้งให้เปิดไว้น่ะครับ
สแกนรูปในเครื่อง ก่อนถูกอัพโหลดนะครับ ข่าวเก่าบอก matching เกิดขึ้นบนเครื่องเรา
ไปๆมาๆ แปลกใจมากกว่าว่า
ก่อนหน้านี้ Apple โดนกดดันอะไร จากใคร
ถึงต้องพยายามทำเรื่องนี้?
เพราะผมจำไม่ได้เลยว่า มีข่าวครหา Apple ในเรื่องพวกนี้ด้วยเหรอ?
จริง อันนี้แหละที่ผมคิด
+1 ครับ หัวข้อนี้น่าสนใจ
+1 แถมโดนกระแสลบตั้งแต่วันแรกที่ประกาศก็ยังดื้อดึงหาวิธีให้ได้ด้วยนะ
ถ้าดูจากที่ปล่อยมา US only (for now) ก็คงเดาว่า US Govt แหละครับ
ยิ่งก่อนหน้านี้มีข่าวปฏิเสธคำขอปลดล็อคจาก FBI อาจจะโดน DOJ เขม่นอยู่ก็เป็นได้
+1
ข้ออ้างฟังไม่ขึ้นจริง ๆ ไม่คิดว่าสุดท้ายแอปเปิลก็กลายเป็นสิ่งที่ด่ากูเกิลมาตลอดเสียเอง อย่างน้อยอีกเจ้า เขาก็ทำอย่างเปิดเผย ไม่ใช่มาหาข้ออ้างงุบงิบทำ โดยเอาเรื่องเด็กบังหน้า
จริงครับ จะกลายเป็นใช้ Apple เสียตังเยอะแล้วยังเสียความเป็นส่วนตัวอีก
สงสัยว่าการที่จะเทรนโมเดลเมื่อหารูปอย่างว่านั้นต้องมีรูปอย่างว่าในการเทรนก่อนไม่ใช่เหรอ? แบบนี้ไม่ถือว่ามีรูปอย่างว่าในครอบครองหรือ? หรือมีการขออนุญาติเป็นพิเศษ?
The Dream hacker..
ผมเข้าใจว่าคนที่ถือครอบครองภาพโป๊เด็กคือ "องค์กรที่ทำงานด้านความปลอดภัยเด็ก" เพราะตัว hashes ก็เอามาจากองค์กรฯ (น่าจะเป็นองค์กรมีเครื่องมือส่ง hashes ให้ Apple แล้ว Apple แค่ตรวจสอบ) เพราะฉะนั้นองค์กรฯก็น่าจะมีสิทธิ์มีภาพเพื่อกระบวนการตรวจสอบได้
-เบิ้ล-
The Dream hacker..
ยังไงก็เปิดไอคราวอยุ่แล้ว ปิดก็ไม่อยากปิด ก็ต้องเปิดอยุ่ดี เพื่อแบคอัพรูปก็น่าจะทำปุ่มมาให้กดแบบตอน ให้ติดตามผุ้ใช้หรือไม่ให้ติดตามนะ
ประเด็นคือ apple อ้างว่ารับค่าhashมาจากหน่วยงาน แล้วใครตรวจสอบหน่วยงาน?
ถ้าหน่วยงานนั้น ได้รับแรงกดดัน ให้ใส่ค่าhashของภาพๆ หนึ่งเป็นพิเศษ เช่นภาพบุคคลที่ต้องการตามล่า?ก็เป็นช่องโหว่เหมือนกัน
ที่ว่าappleจะตรวจสอบก่อนเสมอ นี่ตรวจยังไง แอบดูรูปก่อน? หรือแค่ดูว่าค่าhashตรงกันจริงๆก็แจ้งหน่วยงานแล้ว?
อ่อ มันเป็นยังงี้นี่เอง ถึงเวลาอยากให้แอปเปิลตรวจสอบภาพอะไรก็แค่ส่งแฮชให้ อาจจะเป็น child porno หรืออาจเป็นอย่างอื่นก็ได้
คิดๆตามแล้ว เป็นไปได้ว่า
1)จับตัวผู้ก่อการร้ายได้
2)ตรวจโทรศัพท์พบภาพที่คาดว่าจะมีเฉพาะในกลุ่มผู้ก่อการร้าย(แผนผังตึก,รถ,บุคคลเป้าหมาย)
3)ใส่ hash ให้ apple
4) apple จะแจ้งได้ว่า ใครมีภาพที่ hash ตรงกัน
นั่นแหละ ผู้ร่วมงานทั้งหมด!!
ไม่ได้ใช้ iCloud Photo อยู่แล้ว
แต่ก็รอลุ้นผลเหมือนกันว่าจะออกมาเป็นยังไง
แต่ตอนนี้เริ่มรู้สึกเอนไปทางไม่เห็นด้วยมากกว่า เพราะรู้สึกว่ามันไร้ประโยชน์
เพราะข่าวดังขนาดนี้ คนมีไฟล์จริงๆ ก็แค่ปิด iCloud Photos หรือเลิกใช้ iOS ไปเลย
กลายเป็นว่าไปกระทบ user ที่ไม่ได้คิดจะทำผิด แถมจ่ายเงินเช่า iCloud Photo รายเดือน
ให้กลัวและหนีจากระบบแทน ดูยังไง Apple ก็มีแต่เสียกับเสีย
คิดเหมือนๆ คห ข้างบนนะ ว่า Apple อาจจะโดน US Gov กดดันมา
เลยทำยังไงจะจำกัดวงความเสียหาย (รุกล้ำ) ให้น้อยที่สุด เลยไปลงแค่ iCloud Photo
โดยปกติ ก็สแกน ยุ่งกับทุกอย่างในเครื่องอยู่แล้ว ครั้งนี้คงเป็นเพราะต้องส่งให้หน่วยงานภายนอก เลยต้องประกาศว่ามีฟีเจอร์นี้ ก็คงเหมือนกฎหมาย PDPA บ้านเรานั่นล่ะนะ