Apple News

Binabalangkas ng Apple ang Seguridad at Privacy ng CSAM Detection System sa Bagong Dokumento

Biyernes Agosto 13, 2021 12:45 pm PDT ni Joe Rossignol

Apple ngayon nagbahagi ng dokumento na nagbibigay ng mas detalyadong pangkalahatang-ideya ng child safety feature na una nitong inanunsyo noong nakaraang linggo , kabilang ang mga prinsipyo sa disenyo, mga kinakailangan sa seguridad at privacy, at mga pagsasaalang-alang sa modelo ng pagbabanta.





tampok sa kaligtasan ng komunikasyon sa iphone
Plano ng Apple na tuklasin ang mga kilalang Child Sexual Abuse Material (CSAM) na mga larawan na nakaimbak sa iCloud Photos ay partikular na kontrobersyal at nag-udyok ng mga alalahanin mula sa ilang mananaliksik sa seguridad, ang non-profit na Electronic Frontier Foundation, at iba pa tungkol sa sistemang posibleng inaabuso ng mga pamahalaan bilang isang paraan ng malawakang pagsubaybay.

Ang dokumento ay naglalayong tugunan ang mga alalahanin na ito at inuulit ang ilang mga detalye na lumabas kanina sa isang panayam sa software engineering chief ng Apple na si Craig Federighi , kabilang ang inaasahan ng Apple na magtakda ng paunang threshold ng pagtutugma ng 30 kilalang CSAM na mga larawan bago ma-flag ang isang iCloud account para sa manu-manong pagsusuri ng kumpanya.



Sinabi rin ng Apple na ang on-device na database ng mga kilalang larawan ng CSAM ay naglalaman lamang ng mga entry na independiyenteng isinumite ng dalawa o higit pang mga organisasyon ng kaligtasan ng bata na tumatakbo sa magkahiwalay na soberanong hurisdiksyon at hindi sa ilalim ng kontrol ng parehong pamahalaan.

Ang system ay idinisenyo upang ang isang user ay hindi kailangang magtiwala sa Apple, anumang iba pang nag-iisang entity, o kahit na anumang hanay ng mga posibleng nakikipagsabwatan na entity mula sa parehong soberanong hurisdiksyon (iyon ay, sa ilalim ng kontrol ng parehong pamahalaan) upang maging kumpiyansa na ang system ay gumagana bilang na-advertise. Ito ay nakakamit sa pamamagitan ng ilang magkakaugnay na mekanismo, kabilang ang intrinsic auditability ng isang software na imahe na ipinamahagi sa buong mundo para sa pagpapatupad sa device, isang kinakailangan na ang anumang perceptual na mga hash ng imahe na kasama sa on-device na naka-encrypt na CSAM database ay ibinibigay nang hiwalay ng dalawa o higit pang kaligtasan ng bata. mga organisasyon mula sa hiwalay na soberanong hurisdiksyon, at panghuli, isang proseso ng pagsusuri ng tao upang maiwasan ang anumang maling ulat.

Idinagdag ng Apple na mag-publish ito ng dokumento ng suporta sa website nito na naglalaman ng root hash ng naka-encrypt na CSAM hash database na kasama sa bawat bersyon ng bawat Apple operating system na sumusuporta sa feature. Bukod pa rito, sinabi ng Apple na magagawa ng mga user na suriin ang root hash ng naka-encrypt na database na nasa kanilang device, at ikumpara ito sa inaasahang root hash sa dokumento ng suporta. Walang ibinigay na timeframe para dito.

Sa isang memo nakuha ng Bloomberg ni Mark Gurman , sinabi ng Apple na magkakaroon din ito ng independiyenteng auditor na susuriin ang system. Nabanggit sa memo na ang mga empleyado ng retail ng Apple ay maaaring nakakakuha ng mga tanong mula sa mga customer tungkol sa mga feature ng kaligtasan ng bata at naka-link sa isang FAQ na ibinahagi ng Apple mas maaga sa linggong ito bilang mapagkukunan na magagamit ng mga empleyado upang matugunan ang mga tanong at magbigay ng higit na kalinawan at transparency sa mga customer.

Una nang sinabi ng Apple na ang mga bagong feature sa kaligtasan ng bata ay darating sa iPhone, iPad, at Mac na may mga update sa software sa huling bahagi ng taong ito, at sinabi ng kumpanya na ang mga feature ay magagamit lamang sa U.S. sa paglulunsad. Sa kabila ng pagharap sa pagpuna, sinabi ngayon ng Apple na hindi ito gumawa ng anumang mga pagbabago sa timeframe na ito para sa paglulunsad ng mga feature sa mga user.