Apple News

Kinikilala ni Craig Federighi ang Pagkalito Tungkol sa Mga Feature ng Kaligtasan ng Apple Child at Ipinapaliwanag ang Mga Bagong Detalye Tungkol sa Mga Safeguard

Biyernes Agosto 13, 2021 7:33 am PDT ni Hartley Charlton

Ang senior vice president ng software engineering ng Apple na si Craig Federighi, ay ipinagtanggol ngayon ang kontrobersyal na plano ng kumpanya mga tampok ng kaligtasan ng bata sa isang makabuluhang panayam kay Ang Wall Street Journal , na nagpapakita ng ilang bagong detalye tungkol sa mga pananggalang na binuo sa sistema ng Apple para sa pag-scan sa mga library ng larawan ng mga user para sa Child Sexual Abuse Material (CSAM).





Craig wwdc 2021 privacy
Inamin ni Federighi na pinangasiwaan ng Apple noong nakaraang linggo anunsyo sa dalawang bagong feature na hindi maganda, na nauugnay sa pag-detect ng tahasang content sa Messages for children at CSAM na content na nakaimbak sa Mga Larawan sa iCloud mga aklatan, at kinilala ang malawakang pagkalito sa paligid ng mga tool:

Talagang malinaw na maraming mga mensahe ang nagulo nang husto sa mga tuntunin ng kung paano naiintindihan ang mga bagay. Nais namin na ito ay lumabas nang mas malinaw para sa lahat dahil napaka-positibo at malakas ang pakiramdam namin tungkol sa aming ginagawa.



dapat ko bang hintayin ang apple watch 6

[...]

Sa pagbabalik-tanaw, ang pagpapakilala sa dalawang tampok na ito nang sabay ay isang recipe para sa ganitong uri ng pagkalito. Sa pamamagitan ng pagpapalabas sa kanila nang sabay-sabay, teknikal na ikinonekta sila ng mga tao at natakot sila: ano ang nangyayari sa aking mga mensahe? Ang sagot ay...walang nangyayari sa iyong mga mensahe.

Ang tampok na Kaligtasan ng Komunikasyon ay nangangahulugan na kung ang mga bata ay magpadala o tumanggap ng mga tahasang larawan sa pamamagitan ng iMessage, sila ay babalaan bago ito tingnan, ang larawan ay malabo, at magkakaroon ng opsyon para sa kanilang mga magulang na maalerto. Ang pag-scan ng CSAM, sa kabilang banda, ay sumusubok na itugma ang mga larawan ng mga user sa mga naka-hash na larawan ng kilalang CSAM bago sila i-upload sa iCloud . Ang mga account na may natukoy na CSAM ay sasailalim sa manual na pagsusuri ng Apple at maaaring iulat sa National Center for Missing and Exploited Children (NCMEC).

paano mag set ng countdown sa iphone 11

Ang mga bagong tampok ay napapailalim sa isang malaking halaga ng pagpuna mula sa mga gumagamit, mga mananaliksik sa seguridad , ang Electronic Frontier Foundation (EFF) at Edward Snowden , Ang dating security chief ng Facebook , at kahit na Mga empleyado ng Apple .

Sa gitna ng mga kritisismong ito, tinugunan ni Federighi ang isa sa mga pangunahing bahagi ng pag-aalala, na nagbibigay-diin na ang sistema ng Apple ay mapoprotektahan laban sa pagsasamantala ng mga pamahalaan o iba pang mga ikatlong partido na may 'maraming antas ng auditability.'


Ibinunyag din ni Federighi ang ilang mga bagong detalye sa paligid ng mga pananggalang ng system, tulad ng katotohanan na ang isang user ay kailangang matugunan ang humigit-kumulang 30 mga tugma para sa nilalaman ng CSAM sa kanilang Mga larawan library bago maalerto ang Apple, kung saan makukumpirma nito kung ang mga larawang iyon ay lumalabas na mga tunay na pagkakataon ng CSAM.

Kung at kung matutugunan mo lamang ang isang limitasyon ng isang bagay sa pagkakasunud-sunod ng 30 kilalang mga larawang pornograpiko ng bata na tumutugma, pagkatapos lamang ay alam ng Apple ang anumang bagay tungkol sa iyong account at alam ang anumang bagay tungkol sa mga larawang iyon, at sa puntong iyon, ang alam lang tungkol sa mga larawang iyon, hindi tungkol sa alinman sa iyong iba pang mga larawan. Hindi ito gumagawa ng ilang pagsusuri dahil mayroon ka bang larawan ng iyong anak sa bathtub? O, sa bagay na iyon, mayroon ka bang larawan ng ilang pornograpiya ng anumang iba pang uri? Ito ay literal na tumutugma lamang sa eksaktong mga fingerprint ng mga partikular na kilalang larawang pornograpiko ng bata.

Itinuro din niya ang bentahe sa seguridad ng paglalagay ng proseso ng pagtutugma sa iPhone direkta, sa halip na mangyari ito sa mga server ng ‌iCloud‌

Dahil nasa [telepono] ito, patuloy na nasusuri ng mga mananaliksik sa seguridad kung ano ang nangyayari sa software ng [telepono] ng Apple. Kaya't kung may anumang mga pagbabagong ginawa na magpapalawak sa saklaw nito sa ilang paraan —sa paraang ipinangako namin na hindi gagawin—may verification, makikita nila na nangyayari iyon.

Nang tanungin kung ang database ng mga larawang ginamit upang tumugma sa nilalaman ng CSAM sa mga device ng mga user ay maaaring makompromiso sa pamamagitan ng paglalagay ng iba pang mga materyales, tulad ng pampulitikang nilalaman sa ilang mga rehiyon, ipinaliwanag ni Federighi na ang database ay binuo mula sa mga kilalang larawan ng CSAM mula sa maraming organisasyon ng kaligtasan ng bata, na may hindi bababa sa dalawa na 'nasa magkakaibang hurisdiksyon,' upang maprotektahan laban sa pang-aabuso sa sistema.

saan ginawa ang iphone 11

Ang mga organisasyong ito ng proteksyon ng bata, pati na rin ang isang independiyenteng auditor, ay magagawang i-verify na ang database ng mga larawan ay binubuo lamang ng nilalaman mula sa mga entity na iyon, ayon kay Federighi.

Ang panayam ni Federighi ay kabilang sa pinakamalaking PR pushbacks mula sa Apple sa ngayon kasunod ng halo-halong tugon ng publiko sa anunsyo ng mga tampok sa kaligtasan ng bata, ngunit paulit-ulit ding sinubukan ng kumpanya na tugunan ang mga alalahanin ng mga gumagamit , paglalathala ng FAQ at direktang pagtugon sa mga alalahanin sa mga panayam sa media .

Tags: The Wall Street Journal , Craig Federighi , Apple child safety features