Apple News

Hinihimok ng mga Mananaliksik sa Unibersidad na Bumuo ng CSAM Scanning System ang Apple na Huwag Gamitin ang 'Mapanganib' na Teknolohiya

Biyernes Agosto 20, 2021 6:48 am PDT ni Sami Fathi

Ang mga iginagalang na mananaliksik sa unibersidad ay nagpapatunog ng mga alarma sa teknolohiya sa likod ng mga plano ng Apple na mag-scan iPhone mga library ng larawan ng mga user para sa CSAM, o materyal na pang-aabusong sekswal sa bata, na tinatawag ang teknolohiyang 'mapanganib.'





privacy ng mansanas
Jonanath Mayer, isang assistant professor ng computer science at public affairs sa Princeton University, gayundin si Anunay Kulshrestha, isang researcher sa Princeton University Center for Information Technology Policy, parehong nagsulat ng isang op-ed para sa Ang Washington Post , binabalangkas ang kanilang mga karanasan sa pagbuo ng teknolohiya sa pagtukoy ng imahe.

Sinimulan ng mga mananaliksik ang isang proyekto dalawang taon na ang nakakaraan sa pagkakakilanlan ng CSAM sa mga end-to-end na naka-encrypt na serbisyo sa online. Napansin ng mga mananaliksik na dahil sa kanilang larangan, 'alam nila ang halaga ng end-to-end encryption, na nagpoprotekta sa data mula sa pag-access ng third-party.' Ang pag-aalalang iyon, sabi nila, ang ikinasindak nila sa 'paglaganap ng CSAM sa mga naka-encrypt na platform.'



available ba ang apple watch sa store

Sinabi nina Mayer at Kulshrestha na gusto nilang makahanap ng gitnang lupa para sa sitwasyon: bumuo ng isang sistema na magagamit ng mga online platform upang mahanap ang CSAM at protektahan ang end-to-end na pag-encrypt. Napansin ng mga mananaliksik na ang mga eksperto sa larangan ay nag-alinlangan sa pag-asam ng naturang sistema, ngunit nagawa nilang itayo ito at sa proseso ay napansin ang isang malaking problema.

Sinikap naming galugarin ang isang posibleng gitnang lupa, kung saan ang mga online na serbisyo ay maaaring tumukoy ng mapaminsalang nilalaman habang pinapanatili ang end-to-end na pag-encrypt. Ang konsepto ay diretso: Kung may nagbahagi ng materyal na tumugma sa isang database ng kilalang nakakapinsalang nilalaman, ang serbisyo ay inaalertuhan. Kung ang isang tao ay nagbahagi ng inosenteng nilalaman, ang serbisyo ay walang matutunan. Hindi mabasa ng mga tao ang database o matutunan kung tumugma ang nilalaman, dahil ang impormasyong iyon ay maaaring magbunyag ng mga paraan ng pagpapatupad ng batas at makatulong sa mga kriminal na maiwasan ang pagtuklas.

Ang mga maalam na tagamasid ay nagtalo na ang isang sistemang tulad natin ay malayo sa magagawa. Pagkatapos ng maraming maling pagsisimula, gumawa kami ng gumaganang prototype. Ngunit nakatagpo kami ng isang matingkad na problema.

Mula nang ipahayag ng Apple ang tampok, ang kumpanya ay binomba na may mga alalahanin na ang sistema sa likod ng pag-detect ng CSAM ay maaaring gamitin upang makita ang iba pang anyo ng mga larawan sa kahilingan ng mga mapang-aping pamahalaan. Mahigpit na itinulak ng Apple ang gayong posibilidad, na nagsasabing tatanggihan nito ang anumang kahilingan mula sa mga pamahalaan.

Gayunpaman, laganap ang mga alalahanin sa hinaharap na mga implikasyon ng teknolohiyang ginagamit para sa pagtuklas ng CSAM. Sinabi nina Mayer at Kulshrestha na ang kanilang mga alalahanin sa kung paano magagamit ng mga pamahalaan ang system upang makita ang nilalaman maliban sa CSAM ay 'nabalisa' sa kanila.

magkano ang family plan para sa apple music

Halimbawa, ang isang dayuhang pamahalaan ay maaaring magpilit ng isang serbisyo sa mga taong nagbabahagi ng hindi pinaboran na pampulitikang pananalita. Iyan ay walang hypothetical: Ang WeChat, ang sikat na Chinese messaging app, ay gumagamit na ng content matching para matukoy ang dissident na materyal. Nagpatupad ang India ng mga panuntunan sa taong ito na maaaring mangailangan ng pre-screening na content na kritikal sa patakaran ng gobyerno. Kamakailan ay pinagmulta ng Russia ang Google, Facebook at Twitter dahil sa hindi pag-alis ng mga pro-demokrasya na materyales sa protesta.

Nakita namin ang iba pang mga pagkukulang. Ang proseso ng pagtutugma ng nilalaman ay maaaring magkaroon ng mga maling positibo, at ang mga nakakahamak na user ay maaaring laro ang system upang isailalim ang mga inosenteng user sa pagsisiyasat.

Nabalisa kami kaya gumawa kami ng hakbang na hindi pa namin nakikita noon sa literatura ng computer science: Nagbabala kami laban sa sarili naming disenyo ng system, na humihimok ng karagdagang pananaliksik kung paano pagaanin ang mga seryosong downsides....

Patuloy na tinutugunan ng Apple ang mga alalahanin ng gumagamit sa mga plano nito, paglalathala ng mga karagdagang dokumento at isang FAQ page . Patuloy na naniniwala ang Apple na ang CSAM detection system nito, na magaganap sa device ng isang user, ay naaayon sa mga matagal nang value ng privacy nito.

Tags: Apple privacy , WashingtonPost.com , Apple child safety feature