Apple News

Ang mga Empleyado ng Apple ay Panloob na Nagpapahayag ng Mga Alalahanin Tungkol sa Mga Plano sa Pagtukoy ng CSAM

Biyernes Agosto 13, 2021 12:43 am PDT ni Sami Fathi

Ang mga empleyado ng Apple ay sumasali na ngayon sa koro ng mga indibidwal na nagtataas ng mga alalahanin sa mga plano ng Apple na mag-scan iPhone mga library ng larawan ng mga user para sa CSAM o materyal na pang-aabusong sekswal sa bata, na iniulat na nagsasalita sa loob tungkol sa kung paano magagamit ang teknolohiya upang i-scan ang mga larawan ng mga user para sa iba pang mga uri ng nilalaman, ayon sa isang ulat mula sa Reuters .





apple park drone Hunyo 2018 2
Ayon kay Reuters , isang hindi natukoy na bilang ng mga empleyado ng Apple ang dinala sa mga panloob na channel ng Slack upang ipahayag ang mga alalahanin sa pagtuklas ng CSAM. Sa partikular, ang mga empleyado ay nag-aalala na maaaring pilitin ng mga pamahalaan ang Apple na gamitin ang teknolohiya para sa censorship sa pamamagitan ng paghahanap ng nilalaman maliban sa CSAM. Nag-aalala ang ilang empleyado na sinisira ng Apple ang reputasyon sa privacy nitong nangunguna sa industriya.

Ang mga empleyado ng Apple ay nagbaha sa isang panloob na channel ng Slack ng Apple na may higit sa 800 mga mensahe sa plano na inihayag noong isang linggo, sinabi ng mga manggagawa na humiling na huwag makilala sa Reuters. Marami ang nagpahayag ng pag-aalala na ang tampok ay maaaring pinagsamantalahan ng mga mapanupil na pamahalaan na naghahanap ng iba pang materyal para sa censorship o pag-aresto, ayon sa mga manggagawa na nakakita ng mga araw na thread.



Ang mga nakaraang pagbabago sa seguridad sa Apple ay nagdulot din ng pag-aalala sa mga empleyado, ngunit ang dami at tagal ng bagong debate ay nakakagulat, sinabi ng mga manggagawa. Nag-aalala ang ilang poster na sinisira ng Apple ang nangungunang reputasyon nito sa pagprotekta sa privacy.

Ang mga empleyado ng Apple sa mga tungkulin na nauukol sa seguridad ng gumagamit ay hindi naisip na naging bahagi ng panloob na protesta, ayon sa ulat.

Mula pa noon anunsyo noong nakaraang linggo , ang Apple ay binomba ng kritisismo sa mga plano nito sa pag-detect ng CSAM, na inaasahang lalabas pa rin sa iOS 15 at iPadOS 15 ngayong taglagas . Pangunahing umiikot ang mga alalahanin sa kung paano maaaring magpakita ang teknolohiya ng madulas na dalisdis para sa mga pagpapatupad sa hinaharap ng mga mapang-aping pamahalaan at rehimen.

kailan lumabas ang 12 pro

Mahigpit na itinulak ng Apple ang ideya na ang teknolohiyang nasa device na ginagamit para sa pag-detect ng materyal na CSAM ay maaaring gamitin para sa anumang iba pang layunin. Sa isang na-publish na FAQ na dokumento , sinabi ng kumpanya na mahigpit nitong tatanggihan ang anumang naturang kahilingan ng mga pamahalaan.

Maaari bang pilitin ng mga pamahalaan ang Apple na magdagdag ng mga hindi CSAM na larawan sa listahan ng hash?
Tatanggihan ng Apple ang anumang mga kahilingan. Ang kakayahan sa pagtuklas ng CSAM ng Apple ay binuo lamang upang makita ang mga kilalang CSAM na larawan na nakaimbak sa iCloud Photos na natukoy ng mga eksperto sa NCMEC at iba pang grupo ng kaligtasan ng bata. Hinarap namin ang mga kahilingan na bumuo at mag-deploy ng mga pagbabagong ipinag-uutos ng pamahalaan na nagpapababa sa privacy ng mga user noon, at matatag na tinatanggihan ang mga kahilingang iyon. Patuloy nating tatanggihan ang mga ito sa hinaharap. Linawin natin, ang teknolohiyang ito ay limitado sa pag-detect ng CSAM na nakaimbak sa iCloud at hindi kami papayag sa anumang kahilingan ng pamahalaan na palawakin ito. Higit pa rito, nagsasagawa ang Apple ng pagsusuri ng tao bago gumawa ng ulat sa NCMEC. Sa isang kaso kung saan ang system ay nag-flag ng mga larawan na hindi tumutugma sa mga kilalang CSAM na larawan, ang account ay hindi madi-disable at walang ulat na isasampa sa NCMEC.

An bukas na liham Ang pagpuna sa Apple at pagtawag sa kumpanya na agad na ihinto ang plano nitong mag-deploy ng CSAM detection ay nakakuha ng higit sa 7,000 mga lagda sa oras ng pagsulat. Ang pinuno ng WhatsApp ay mayroon din tinitimbang sa debate .

Mga Tag: Apple privacy , Apple child safety feature