Apple News

Hinihimok ng Global Coalition of Policy Groups ang Apple na Iwanan ang 'Plano na Bumuo ng Mga Kakayahang Pagsubaybay sa mga iPhone'

Huwebes Agosto 19, 2021 2:23 am PDT ni Tim Hardwick

Isang internasyonal na koalisyon ng higit sa 90 mga grupo ng patakaran at karapatan naglathala ng bukas na liham noong Huwebes na hinihimok ang Apple na talikuran ang mga plano nito na 'bumuo ng mga kakayahan sa pagsubaybay sa mga iPhone, iPad, at iba pang mga produkto' - isang sanggunian sa layunin ng kumpanya na i-scan ang mga iCloud photo library ng mga user para sa mga larawan ng child sex abuse (sa pamamagitan ng Reuters ).





Dilaw ang Feature na Pangkaligtasan ng Bata

Bagama't ang mga kakayahan na ito ay nilayon upang protektahan ang mga bata at bawasan ang pagkalat ng child sexual abuse material (CSAM), nababahala kami na gagamitin ang mga ito para i-censor ang protektadong pananalita, banta ang privacy at seguridad ng mga tao sa buong mundo, at magkaroon ng kapahamakan. mga kahihinatnan para sa maraming bata,' isinulat ng mga grupo sa liham.



Ang ilang mga lumagda sa liham, na inayos ng U.S.-based nonprofit Center for Democracy & Technology (CDT), ay nag-aalala na ang on-device na CSAM scanning system ng Apple ay maaaring masira sa mga bansang may iba't ibang legal na sistema upang maghanap ng pampulitika o iba pang sensitibong nilalaman.

'Kapag na-built in na ang feature na ito sa backdoor, maaaring pilitin ng mga pamahalaan ang Apple na palawigin ang abiso sa iba pang mga account, at upang makita ang mga larawang hindi kanais-nais para sa mga dahilan maliban sa pagiging tahasang sekswal,' ang sabi ng sulat.

Nanawagan din ang liham sa Apple na iwanan ang mga nakaplanong pagbabago sa iMessage sa mga account ng pamilya, na susubukan na tukuyin at i-blur ang kahubaran sa mga mensahe ng mga bata, na hahayaan silang tingnan lamang ito kung aabisuhan ang mga magulang. Sinasabi ng mga lumagda na hindi lamang maaaring ilagay sa panganib ang hakbang na ito sa mga bata sa mga tahanan na hindi mapagparaya o sa mga naghahanap ng materyal na pang-edukasyon, masisira rin nito ang end-to-end na pag-encrypt para sa iMessage.

Ang ilang mga lumagda ay nagmula sa mga bansa kung saan mayroon nang mainit na ligal na labanan sa digital encryption at mga karapatan sa privacy, tulad ng Brazil, kung saan paulit-ulit na na-block ang WhatsApp dahil sa hindi pag-decrypt ng mga mensahe sa mga kriminal na pagsisiyasat. Ang iba pang lumagda ay nakabase sa India, Mexico, Germany, Argentina, Ghana at Tanzania. Kasama sa mga grupong lumagda rin ang American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International, at ang Tor Project.

Plano ng Apple na makita ang mga kilalang CSAM na imahe na nakaimbak sa Mga Larawan sa iCloud ay partikular na kontrobersyal at nag-udyok ng mga alalahanin mula sa mga mananaliksik sa seguridad, akademya, grupo ng privacy, at iba pa tungkol sa sistemang posibleng inaabuso ng mga pamahalaan bilang isang paraan ng malawakang pagsubaybay. Sinubukan ng kumpanya na tugunan ang mga alalahanin sa pamamagitan ng pag-publish mga karagdagang dokumento at a FAQ page nagpapaliwanag kung paano gagana ang sistema ng pagtukoy ng imahe at pangangatwiran na mababa ang panganib ng mga maling pagtuklas.

Sinabi rin ng Apple na tatanggihan nito ang mga kahilingan na palawakin ang sistema ng pagtuklas ng imahe sa kabila ng mga larawan ng mga bata na na-flag ng mga kinikilalang database ng materyal na pang-aabuso sa kasarian ng bata, bagaman bilang Reuters ipinunto, hindi nito sinabi na ito ay mag-pull out sa isang merkado sa halip na sundin ang isang utos ng hukuman.

Tags: Apple privacy , Apple child safety feature