Apple News

Nagpahayag ng Alarm ang Mga Mananaliksik sa Seguridad Sa Mga Plano ng Apple na I-scan ang Mga Larawan ng iCloud, Ngunit Laganap Na ang Practice

Huwebes Agosto 5, 2021 2:04 pm PDT ni Juli Clover

Apple ngayon inihayag na sa paglulunsad ng iOS 15 at iPad 15 , magsisimula itong mag-scan Mga Larawan sa iCloud sa U.S. upang maghanap ng kilalang Child Sexual Abuse Material (CSAM), na may planong iulat ang mga natuklasan sa National Center for Missing and Exploited Children (NCMEC).





Tampok sa Kaligtasan ng Bata
Bago idinetalye ng Apple ang mga plano nito, nag-leak ang balita tungkol sa inisyatiba ng CSAM, at nagsimula na ang mga mananaliksik sa seguridad na magpahayag ng mga alalahanin tungkol sa kung paano magagamit ang bagong image scanning protocol ng Apple sa hinaharap, gaya ng nabanggit ng Financial Times .

Gumagamit ang Apple ng isang 'NeuralHash' system upang ihambing ang mga kilalang larawan ng CSAM sa mga larawan ng isang user iPhone bago sila ma-upload sa iCloud . Kung may tugma, ang larawang iyon ay ina-upload na may isang cryptographic na safety voucher, at sa isang partikular na limitasyon, ma-trigger ang isang pagsusuri upang tingnan kung ang tao ay may CSAM sa kanilang mga device.



gaano katagal ang pag-aalaga ng mansanas

Sa kasalukuyang panahon, ginagamit ng Apple ang teknolohiyang pag-scan at pagtutugma ng larawan nito upang maghanap ng pang-aabuso sa bata, ngunit nag-aalala ang mga mananaliksik na sa hinaharap, maaari itong iakma upang mag-scan para sa iba pang mga uri ng koleksyon ng imahe na higit na may kinalaman, tulad ng mga anti-government sign sa mga protesta.

Sa isang serye ng mga tweet, Johns Hopkins cryptography researcher Matthew Green sinabi na ang pag-scan ng CSAM ay isang 'talagang masamang ideya' dahil sa hinaharap, maaari itong lumawak sa pag-scan ng mga end-to-end na naka-encrypt na larawan sa halip na nilalaman lamang na na-upload sa ‌iCloud‌. Para sa mga bata, Apple ay nagpapatupad ng hiwalay na feature sa pag-scan na naghahanap ng tahasang sekswal na nilalaman nang direkta sa iMessages, na end-to-end na naka-encrypt.

Nagtaas din si Green ng mga alalahanin sa mga hash na pinaplanong gamitin ng Apple dahil posibleng magkaroon ng 'mga banggaan,' kung saan may nagpapadala ng hindi nakakapinsalang file na nagbabahagi ng hash sa CSAM at maaaring magresulta sa isang maling bandila.

Ang Apple sa bahagi nito ay nagsasabi na ang teknolohiya sa pag-scan nito ay may 'napakataas na antas ng katumpakan' upang matiyak na ang mga account ay hindi na-flag nang tama, at ang mga ulat ay manu-manong sinusuri bago ang ‌iCloud‌ ang account ay hindi pinagana at isang ulat ay ipinadala sa NCMEC.

Naniniwala si Green na ang pagpapatupad ng Apple ay magtutulak sa iba pang mga tech na kumpanya na magpatibay ng mga katulad na pamamaraan. 'Ito ay masira ang dam,' isinulat niya. 'Hihilingin ito ng mga pamahalaan mula sa lahat.' Inihambing niya ang teknolohiya sa 'mga tool na ipinakalat ng mga mapanupil na rehimen.'


Ang tagapagpananaliksik ng seguridad na si Alec Muffett, na dating nagtrabaho sa Facebook, ay nagsabi na ang desisyon ng Apple na ipatupad ang ganitong uri ng pag-scan ng imahe ay isang 'malaking at regressive na hakbang para sa indibidwal na privacy.' 'Ang Apple ay lumalakad pabalik sa privacy upang paganahin ang 1984,' sabi niya.

Sinabi ni Ross Anderson, propesor ng security engineering sa Unibersidad ng Cambridge na tinawag itong isang 'ganap na kakila-kilabot na ideya' na maaaring humantong sa 'ibinahagi na bulk surveillance' ng mga device.

Tulad ng itinuro ng marami sa Twitter, maraming mga tech na kumpanya ang nagsasagawa na ng pag-scan ng imahe para sa CSAM. Gumagamit ang Google, Twitter, Microsoft, Facebook, at iba pa ng mga paraan ng pagha-hash ng larawan upang maghanap at mag-ulat ng mga kilalang larawan ng pang-aabuso sa bata.


Ito rin ay nagkakahalaga ng noting na Apple ay na pag-scan ng ilang nilalaman para sa mga larawan ng pang-aabuso sa bata bago ang paglulunsad ng bagong inisyatiba ng CSAM. Noong 2020, sinabi ng punong opisyal ng privacy ng Apple na si Jane Horvath na gumamit ang Apple ng teknolohiya sa screening upang maghanap ng mga ilegal na larawan at pagkatapos ay i-disable ang mga account kung may nakitang ebidensya ng CSAM.

paano maglagay ng mga larawan sa iyong apple watch

Apple noong 2019 na-update ang mga patakaran sa privacy nito para tandaan na ii-scan nito ang na-upload na nilalaman para sa 'potensyal na ilegal na nilalaman, kabilang ang materyal na pagsasamantalang sekswal sa bata,' kaya ang mga anunsyo ngayon ay hindi ganap na bago.

Tandaan: Dahil sa pulitikal o panlipunang katangian ng talakayan tungkol sa paksang ito, ang thread ng talakayan ay matatagpuan sa aming Balitang Pampulitika forum. Ang lahat ng mga miyembro ng forum at mga bisita sa site ay malugod na tinatanggap na basahin at sundin ang thread, ngunit ang pag-post ay limitado sa mga miyembro ng forum na may hindi bababa sa 100 mga post.

Mga Tag: Apple privacy , Apple child safety feature