Matthew Green นักวิจัยความปลอดภัยไซเบอร์ชื่อดัง อ้างแหล่งข่าวไม่เปิดเผยตัวตนหลายรายว่าแอปเปิลกำลังเปิดใช้งานตัวสแกนภาพโป๊เด็กบนไอโฟน
เนื้อหาทางเพศจากการละเมิดเด็ก (child sexual abuse material - CSAM) เป็นประเด็นสำคัญในโลกเทคโนโลยีเนื่องจากเป็นเนื้อหาที่มีความผิดจากการครองครองเพียงอย่างเดียว แต่เทคโนโลยีการเข้ารหัสทุกวันนี้ทำให้กระบวนการตรวจสอบว่าใครครอบครองหรือเผยแพร่เนื้อหาเหล่านี้ทำได้ยากขึ้น
แนวทางการสร้างฐานข้อมูลภาพโป๊เด็กและสแกนหาภาพเหล่านี้บนบริการคลาวด์มีมานานแล้ว โดยไมโครซอฟท์ได้พัฒนา โปรแกรม PhotoDNA เพื่อหาภาพที่ตรงกับฐานข้อมูลมาตั้งแต่ปี 2014 ทั้งกูเกิล, ทวิตเตอร์, และเฟซบุ๊กก็ใช้งานเครื่องมือนี้ แต่ที่ผ่านมายังจำกัดอยู่เฉพาะบริการออนไลน์เท่านั้น หากแอปเปิลนำเครื่องมือนี้มาสแกนบน iPhone จริงก็นับว่าเป็นการนำเครื่องมือมาสแกนบนอุปกรณ์ของผู้ใช้โดยตรงเป็นวงกว้างครั้งแรกๆ
Green ระบุว่าเครื่องมือจะดาวน์โหลดฐานข้อมูลแฮชลักษณะภาพ (perceptual hash) ลงมายังโทรศัพท์ และสแกนหาภาพที่ตรงกับค่าแฮช หากพบภาพที่ตรงจำนวนเกินที่ตั้งไว้ก็จะแจ้งกลับไปยังเซิร์ฟเวอร์แอปเปิล แนวทางนี้ทำให้แอปเปิลสามารถแจ้งเจ้าหน้าที่ได้ แม้ผู้ใช้จะไม่เปิดบริการคลาวด์ใดๆ เพื่อซิงก์ภาพออกจากโทรศัพท์เลยก็ตาม อย่างไรก็ดี Green ระบุว่าในช่วงแรกแอปเปิลจะตรวจสอบค่าแฮชเฉพาะภาพที่แชร์ขึ้นคลาวด์แล้วเท่านั้น แต่การสร้างโปรแกรมเพื่อรันในเครื่องผู้ใช้โดยตรงนั้นก็ไม่น่ามีวัตถุประสงค์อื่นนอกจากต้องการสแกนทุกภาพในเครื่อง
ที่ผ่านมาระบบแชตแบบเข้ารหัสจากปลายทางถึงปลายทาง (end-to-end) เป็นประเด็นถกเถียงกันมากเนื่องจากหน่วยงานรัฐไม่สามารถเข้าถึงข้อมูลในแชตผ่านทางผู้ให้บริการได้ แต่ต้องยึดโทรศัพท์และตรวจสอบข้อความจากโทรศัพท์โดยตรงเท่านั้น แนวทางการฝังโปรแกรมสแกนเนื้อหาและขอให้แจ้งเตือนเมื่อเนื้อหาในโทรศัพท์ตรงตามเงื่อนไขจึงเป็นแนวทางที่หน่วยงานรัฐหลายชาติเสนอให้ใช้งาน หลายปีก่อน โปรแกรม LINE ในจีนก็เคยดาวน์โหลดฐานข้อมูลคำสำคัญ เพื่อบล็อคคำต้องห้าม
ที่มา - Hacker News , @matthew_d_green
ภาพจาก Pexels
Comments
ผปค. ที่ถ่ายรูปลูกเต้า AI จะแยกแยะยังไง
ถ้าไม่ตรงกับฐานข้อมูลก็ไม่น่า match นะครับ อันนี้มันมีการถกเถียงกันเยอะเหมือนกันว่าตัว algorithm มันไม่เปิดเผย (ซึ่งก็ติดข้อจำกัดว่าถ้าเปิดหมด คนร้ายก็แปลงรูปให้หลบได้) เลยกลายเป็นไม่แน่ใจว่าโดน report โดยไม่เป็นธรรมไหม
lewcpe.com , @wasonliw
เอ๊ะ ผปค. นี่ถ่ายภาพโป๊ลูกเต้าด้วยเหรอครับ อาจจะเว้นตอนทารกไปหน่อย
ไม่แปลกนะ ฝึกการอาบน้ำลูก อาบน้ำเองครั้งแรก ฯลฯ
ทารกคงไม่เข้าเกณฑ์หรอก เอาที่มีประเด็นคือเด็กเล็กแค่ไหนที่บางคนดูแล้วเกิดอารมณ์ทางเพศดีกว่า แล้ววัยเท่านั้นพ่อแม่แบบไหนจะถ่ายรูป โป๊เปลือยของลูกตัวเองเก็บไว้
รูปลูกแก้ผ้าวิ่งในบ้าน หรือกำลังอาบน้ำ คือแบบถอดเสื้อนี่น่าจะมีแน่ๆ มันก็หมิ่นเหม่ว่าถ้าคนในครอบครัวก็ไม่เป็นไร แต่ถ้าคนนอกเห็นก็ไม่เหมาะ เด็ก2-5ขวบก็โตกว่าทารกแล้วล่ะ
วันก่อนเพิ่งเข้าไปเตือนแม่ท่านนึงในกลุ่มพ่อแม่บนเฟสบุค โพสท์รูปลูกเค้าเองตอนเด็กๆ ไม่ใส่เสื้อผ้า ดูแล้วก็ไม่น่าเกิน 4 ขวบ ประมาณว่าตลกดี เอ็นดูอะไรประมาณนั้น
ปรากฎว่าผมถูกด่าว่าโรคจิต สักพัก โพสท์ถูกทัวร์คุณพ่อคุณแม่มาเยือนจนต้องลบ ไม่วายคิดว่าตัวเองไม่ผิด
ที่จะบอกคือพ่อแม่บางคนก็ยังไม่ทันโลกอ่ะครับ
ผมนี่ต้องเตือนแฟนตลอดเวลาโพสรูปลูก หรือแม้กระทั่งแค่ถ่ายก็ตามที พยายามอย่างน้อยไม่ให้เห็นส่วนนั้น
ดีครับที่ช่วยกับคุณแม่ดูแลลูก หายากนะ
มันมีรูปแบบเฉพาะของมันอยู่ ผมว่าเขาน่าจะหาทั้งโครงสร้างทั้ง 3 มิติ (+ มิติเวลาไม่ใช่ความลึก) ลักษณะที่เหมือนกับภาพต้นฉบับ รวมถึงโครงสร้างใบหน้าเพื่อยืนยันตัวเหยื่อด้วย ดังนั้นถ้าเป็นภาพของเด็กที่ไม่ใช่เหยื่อ ก็น่าจะไม่เข้าลักษณะ ยกเว้นหน้าตาดันไปคล้าย หรือเป็นรูปภาพที่ถูกถ่ายในมุมที่ไม่ชัดเจน แต่ถ้าเป็น VDO ไม่น่าจะพลาดเพราะคงต้องมีมิติเวลามาเข้าร่วมตรวจสอบเฟรมด้วย แต่วิธีนี้มีข้อจำกัด คือ ต้องมีต้นแบบต้นฉบับก่อน ดังนั้นถ้าเป็นเหยื่อที่ยังไม่เคยถูกแจ้งความาก่อน น่าจะต้องใช้เทคนิคตรวจสอบลักษณะเฉพาะของรูปแบบ และลักษณะร่างกายในแต่ละเฟรมด้วย ซึ่งผมว่าไม่น่ายากนะ เห็นหลายๆ ที่ก็ทำได้กันแล้ว
อยากรู้ว่าถ้าเป็นสาวตัวเล็กหน้าเด็กเฉยๆ กับเด็กโตเกินวัย จะแยกแยะยังไง แล้วสกัดยังไงไม่ให้ผิดพลาด
ปัญหา คือ แม้จะเป็นการกระทำเพื่อปกป้องเด็ก หรือกฎหมาย แต่แอปเปิ้ลมีสิทธิ์แค่ไหนที่จะเปิดใช้งานระบบนี้ เพราะแบบนี้ก็เท่ากับแอปเปิ้ลไปละเมิดสิทธิและเสรีภาพและความเป็นส่วนตัวของทุกคนที่ใช้ iPhone ซึ่งต้องถามว่ามันใช่เหรอ
ไม่คิดว่าจะทำนะ เพราะ ถึงแม้จะแจ้งไป apple แล้ว apple จะไปแจ้งตำรวจยังไงต่อ มือถือใช้ทั่วโลก
ผมก็ถ่ายน้องผมตอนอาบน้ำตอน 2ขวบ แบบนี้จะนับไหมนิ 555555
ต้นทางของ hash มาจากไหน ก็ต้องมีคนดูแล้วพิสูจย์ว่าเป็นรูปโป้เด็กก่อน คนเหล่านั้นจะไม่โดนกฎหมายใช่ไหม?
น่าจะรูปแบบเดียวกับ PhotoDNA ที่หน่วยงานกลาง (Interpol) generate hash ออกมาให้นะครับ
lewcpe.com , @wasonliw
เอามาไว้จัดการพวกขบวนการขายภาพโป๊เด็กรึปล่าวครับ
ภาพโป๊เด็กนี่ผิดหมด ทั้งซื้อ, ขาย, แจก, ครอบครอง ครับ
lewcpe.com , @wasonliw
หือ ? ไม่เห็นมีใครพูดถึงเรื่องความเป็นส่วนตัว ???
ผมไงพูด แต่ทุกคนดูเหมือนจะทำเป็นมองไม่เห็นจุดนั้น เพราะเป็น Apple
Apple เค้าคิดมาดีแล้วครับ
น่าจะประมาณนี้
เพราะ Apple ทำมุมมองเลยต่างกัน ถ้ากูเกิลทำงี้ หรือบริษัทจีนทำ คนจะไม่ค่อยเชื่อเท่าไรนะครับว่ามันจะดีอย่างที่บอกหรือเปล่า
ซึ่งอีกข่าวก็เป็นการยืนยันเล็กๆ ว่าระบบทำงานบนเครื่อง privacy ระดับหนึง https://www.blognone.com/node/124093