Apple News

Nag-publish ang Apple ng FAQ upang Matugunan ang Mga Alalahanin Tungkol sa Pagtukoy ng CSAM at Pag-scan ng mga Mensahe

Lunes Agosto 9, 2021 2:50 am PDT ni Tim Hardwick

Nag-publish ang Apple ng FAQ na pinamagatang 'Expanded Protections for Children' na naglalayong alisin ang mga alalahanin sa privacy ng mga user tungkol sa bagong pagtuklas ng CSAM sa Mga Larawan sa iCloud at kaligtasan ng komunikasyon para sa mga feature ng Messages na ang kumpanya inihayag noong nakaraang linggo .





privacy ng mansanas
'Dahil inanunsyo namin ang mga feature na ito, maraming stakeholder kabilang ang mga organisasyon ng privacy at mga organisasyon ng kaligtasan ng bata ang nagpahayag ng kanilang suporta sa bagong solusyong ito, at ang ilan ay nakipag-ugnayan sa mga tanong,' ang sabi ng FAQ. 'Ang dokumentong ito ay nagsisilbi upang matugunan ang mga tanong na ito at magbigay ng higit na kalinawan at transparency sa proseso.'

Ang ilang mga talakayan ay lumabo ang pagkakaiba sa pagitan ng dalawang tampok, at ang Apple ay labis na nagdurusa sa dokumento upang ibahin ang mga ito, na nagpapaliwanag na ang kaligtasan ng komunikasyon sa Messages ay 'gumagana lamang sa mga larawang ipinadala o natanggap sa Messages app para sa mga child account na naka-set up sa Family Sharing,' habang ang CSAM detection sa ‌iCloud Photos‌ 'naaapektuhan lang ang mga user na piniling gumamit ng ‌iCloud Photos‌ upang iimbak ang kanilang mga larawan... Walang epekto sa anumang iba pang data sa device.'



Mula sa FAQ:

iphone ios 14 mga ideya sa home screen

Ang dalawang tampok na ito ay hindi pareho at hindi gumagamit ng parehong teknolohiya.

Ang kaligtasan ng komunikasyon sa Messages ay idinisenyo upang bigyan ang mga magulang at anak ng mga karagdagang tool upang makatulong na protektahan ang kanilang mga anak mula sa pagpapadala at pagtanggap ng mga tahasang sekswal na larawan sa Messages app. Gumagana lang ito sa mga larawang ipinadala o natanggap sa Messages app para sa mga child account na naka-set up sa Family Sharing. Sinusuri nito ang mga larawan sa device, at sa gayon ay hindi binabago ang mga kasiguruhan sa privacy ng Messages. Kapag ang isang child account ay nagpadala o nakatanggap ng mga tahasang sekswal na larawan, ang larawan ay magiging blur at ang bata ay babalaan, bibigyan ng mga kapaki-pakinabang na mapagkukunan, at tinitiyak na okay lang kung ayaw niyang tingnan o ipadala ang larawan. Bilang karagdagang pag-iingat, masasabi rin sa mga bata na, para matiyak na ligtas sila, makakatanggap ng mensahe ang kanilang mga magulang kung titingnan nila ito.

Ang pangalawang feature, ang CSAM detection sa iCloud Photos, ay idinisenyo upang panatilihing naka-off ang CSAM sa iCloud Photos nang hindi nagbibigay ng impormasyon sa Apple tungkol sa anumang mga larawan maliban sa mga tumutugma sa mga kilalang CSAM na larawan. Ang mga larawan ng CSAM ay labag sa batas na taglayin sa karamihan ng mga bansa, kabilang ang Estados Unidos. Naaapektuhan lang ng feature na ito ang mga user na piniling gumamit ng iCloud Photos para iimbak ang kanilang mga larawan. Hindi ito nakakaapekto sa mga user na hindi piniling gumamit ng iCloud Photos. Walang epekto sa anumang iba pang data sa device. Ang feature na ito ay hindi nalalapat sa Messages.

Ang natitirang bahagi ng dokumento ay nahahati sa tatlong seksyon (naka-bold sa ibaba), na may mga sagot sa mga sumusunod na karaniwang itinatanong:

paano patulog ang apple watch

paano tanggalin ang cache sa iphone
    Kaligtasan ng komunikasyon sa Mga Mensahe
  • Sino ang maaaring gumamit ng kaligtasan ng komunikasyon sa Messages?
  • Nangangahulugan ba ito na magbabahagi ang Messages ng impormasyon sa Apple o sa pagpapatupad ng batas?
  • Sinisira ba nito ang end-to-end na pag-encrypt sa Messages?
  • Pinipigilan ba ng feature na ito ang mga bata sa mga mapang-abusong tahanan na humingi ng tulong?
  • Aabisuhan ba ang mga magulang nang hindi binabalaan at binibigyan ng pagpipilian ang mga bata?
  • Pagtuklas ng CSAM
  • Nangangahulugan ba ito na i-scan ng Apple ang lahat ng mga larawang nakaimbak sa aking iPhone ?
  • Magda-download ba ito ng mga larawan ng CSAM sa aking ‌iPhone‌ upang ihambing laban sa aking mga larawan?
  • Bakit ginagawa ito ng Apple ngayon?
  • Seguridad para sa pagtuklas ng CSAM para sa iCloud Photos
  • Maaari bang ang CSAM detection system sa ‌iCloud Photos‌ gagamitin upang makita ang mga bagay maliban sa CSAM?
  • Maaari bang pilitin ng mga pamahalaan ang Apple na magdagdag ng mga hindi CSAM na larawan sa listahan ng hash?
  • Maaari bang 'i-inject' ang mga larawang hindi CSAM sa system upang i-flag ang mga account para sa mga bagay maliban sa CSAM?
  • Ang pagtuklas ba ng CSAM sa ‌iCloud Photos‌ huwad na bandila ng mga inosenteng tao sa pagpapatupad ng batas?

Ang mga interesadong mambabasa ay dapat kumonsulta sa dokumento para sa buong sagot ng Apple sa mga tanong na ito. Gayunpaman, nararapat na tandaan na para sa mga tanong na iyon na maaaring masagot ng binary na oo/hindi, sinisimulan ng Apple ang lahat ng ito sa 'Hindi' maliban sa sumusunod na tatlong tanong mula sa seksyong may pamagat na 'Security for CSAM detection para sa ‌ Mga Larawan sa iCloud‌:'

Magagamit ba ang CSAM detection system sa iCloud Photos para makita ang mga bagay maliban sa CSAM?
Ang aming proseso ay idinisenyo upang maiwasan iyon na mangyari. Binuo ang CSAM detection para sa iCloud Photos para gumana lang ang system sa mga CSAM image hash na ibinigay ng NCMEC at iba pang organisasyon ng kaligtasan ng bata. Ang hanay ng mga hash ng larawan ay batay sa mga larawang nakuha at na-validate na CSAM ng mga organisasyong pangkaligtasan ng bata. Walang awtomatikong pag-uulat sa nagpapatupad ng batas, at ang Apple ay nagsasagawa ng pagsusuri ng tao bago gumawa ng ulat sa NCMEC. Bilang resulta, ang system ay idinisenyo lamang upang mag-ulat ng mga larawang kilalang CSAM sa iCloud Photos. Sa karamihan ng mga bansa, kabilang ang United States, ang pagkakaroon lamang ng mga larawang ito ay isang krimen at obligado ang Apple na iulat ang anumang mga pagkakataong nalaman namin sa mga naaangkop na awtoridad.

Maaari bang pilitin ng mga pamahalaan ang Apple na magdagdag ng mga hindi CSAM na larawan sa listahan ng hash?
Tatanggihan ng Apple ang anumang mga naturang kahilingan. Ang kakayahan sa pagtuklas ng CSAM ng Apple ay binuo lamang upang makita ang mga kilalang CSAM na larawan na nakaimbak sa iCloud Photos na natukoy ng mga eksperto sa NCMEC at iba pang grupo ng kaligtasan ng bata. Hinarap namin ang mga kahilingan na bumuo at mag-deploy ng mga pagbabagong ipinag-uutos ng pamahalaan na nagpapababa sa privacy ng mga user noon, at matatag na tinatanggihan ang mga kahilingang iyon. Patuloy nating tatanggihan ang mga ito sa hinaharap. Linawin natin, ang teknolohiyang ito ay limitado sa pag-detect ng CSAM na nakaimbak sa iCloud at hindi kami papayag sa anumang kahilingan ng pamahalaan na palawakin ito. Higit pa rito, nagsasagawa ang Apple ng pagsusuri ng tao bago gumawa ng ulat sa NCMEC. Sa isang kaso kung saan ang system ay nag-flag ng mga larawan na hindi tumutugma sa mga kilalang CSAM na larawan, ang account ay hindi madi-disable at walang ulat na isasampa sa NCMEC.

Maaari bang 'i-inject' ang mga larawang hindi CSAM sa system upang i-flag ang mga account para sa mga bagay maliban sa CSAM?
Ang aming proseso ay idinisenyo upang maiwasan iyon na mangyari. Ang hanay ng mga hash ng larawan na ginamit para sa pagtutugma ay mula sa mga kilala, kasalukuyang larawan ng CSAM na nakuha at na-validate ng mga organisasyong pangkaligtasan ng bata. Hindi nagdadagdag ang Apple sa hanay ng mga kilalang CSAM image hash. Ang parehong hanay ng mga hash ay naka-store sa operating system ng bawat user ng iPhone at iPad, kaya hindi posible ang mga naka-target na pag-atake laban sa mga partikular na indibidwal sa ilalim ng aming disenyo. Sa wakas, walang awtomatikong pag-uulat sa tagapagpatupad ng batas, at ang Apple ay nagsasagawa ng pagsusuri ng tao bago gumawa ng ulat sa NCMEC. Sa hindi malamang na kaganapan ng pag-flag ng system ng mga larawan na hindi tumutugma sa mga kilalang larawan ng CSAM, ang account ay hindi madi-disable at walang ulat na isasampa sa NCMEC.

Ang Apple ay nahaharap sa makabuluhang batikos mula sa mga tagapagtaguyod ng privacy, mga mananaliksik sa seguridad, mga eksperto sa cryptography, akademya, at iba pa para sa desisyon nitong i-deploy ang teknolohiya sa paglabas ng iOS 15 at iPad 15 , inaasahan sa Setyembre.

Nagresulta ito sa isang bukas na liham pinupuna ang plano ng Apple na i-scan ang mga iPhone para sa CSAM sa ‌iCloud Photos‌ at tahasang mga larawan sa mga mensahe ng mga bata, na nakakuha ng higit sa 5,500 mga lagda sa pagsulat. Nakatanggap din ang Apple ng batikos mula sa WhatsApp na pag-aari ng Facebook, na ang pinunong si Will Cathcart tinawag ito 'ang maling diskarte at isang pag-urong para sa privacy ng mga tao sa buong mundo.' Epic Games CEO Tim Sweeney din inatake ang desisyon, na sinasabing siya ay 'sinubukan nang husto' upang makita ang paglipat mula sa punto ng view ng Apple, ngunit napagpasyahan na, 'hindi maiiwasan, ito ay spyware ng gobyerno na na-install ng Apple batay sa isang pagpapalagay ng pagkakasala.'

'Gaano man kahusay ang intensyon, inilunsad ng Apple ang malawakang pagsubaybay sa buong mundo gamit ito,' sabi kilalang whistleblower na si Edward Snowden, idinagdag na 'kung makakapag-scan sila para sa kiddie porn ngayon, maaari silang mag-scan para sa kahit ano bukas.' Ang non-profit na Electronic Frontier Foundation din pinuna Ang mga plano ng Apple, na nagsasabi na 'kahit na ang isang lubusang dokumentado, maingat na pinag-isipan, at makitid na saklaw na backdoor ay isang backdoor pa rin.'

may mga bagong airpod pro na lumalabas
Mga Tag: Apple privacy , Apple child safety feature