Apple News

Bukas ang Apple sa Pagpapalawak ng Mga Bagong Feature ng Kaligtasan ng Bata sa Mga Third-Party na App

Lunes Agosto 9, 2021 12:00 pm PDT ni Joe Rossignol

Ang Apple ngayon ay nagsagawa ng sesyon ng mga tanong-at-sagot sa mga mamamahayag tungkol dito mga bagong tampok sa kaligtasan ng bata , at sa panahon ng briefing, kinumpirma ng Apple na magiging bukas ito sa pagpapalawak ng mga feature sa mga third-party na app sa hinaharap.





tampok sa kaligtasan ng komunikasyon sa iphone
Bilang pag-refresh, inilabas ng Apple ang tatlong bagong feature sa kaligtasan ng bata na paparating sa mga hinaharap na bersyon ng iOS 15, iPadOS 15, macOS Monterey, at/o watchOS 8.

Mga Tampok sa Kaligtasan ng Bagong Bata ng Apple

Una, ang isang opsyonal na feature na Kaligtasan sa Komunikasyon sa Messages app sa iPhone, iPad, at Mac ay maaaring magbigay ng babala sa mga bata at kanilang mga magulang kapag tumatanggap o nagpapadala ng mga tahasang sekswal na larawan. Kapag na-enable ang feature, sinabi ng Apple na ang Messages app ay gagamit ng on-device na machine learning para pag-aralan ang mga attachment ng larawan, at kung ang isang larawan ay matukoy na tahasang sekswal, ang larawan ay awtomatikong mala-blur at ang bata ay babalaan.



Pangalawa, matutukoy ng Apple ang mga kilalang Child Sexual Abuse Material (CSAM) na mga larawan na nakaimbak sa iCloud Photos, na magbibigay-daan sa Apple na iulat ang mga pagkakataong ito sa National Center for Missing and Exploited Children (NCMEC), isang non-profit na organisasyon na gumagana sa pakikipagtulungan sa mga ahensyang nagpapatupad ng batas ng US. Kinumpirma ngayon ng Apple na malalapat lamang ang proseso sa mga larawang ina-upload sa iCloud Photos at hindi sa mga video.

Pangatlo, palalawakin ng Apple ang gabay sa Siri at Spotlight Search sa mga device sa pamamagitan ng pagbibigay ng mga karagdagang mapagkukunan upang matulungan ang mga bata at magulang na manatiling ligtas online at makakuha ng tulong sa mga hindi ligtas na sitwasyon. Halimbawa, ang mga user na nagtatanong kay Siri kung paano nila maiuulat ang CSAM o child exploitation ay ituturo sa mga mapagkukunan kung saan at kung paano maghain ng ulat.

Pagpapalawak sa Mga Third-Party na App

Sinabi ng Apple na bagama't wala itong ibabahagi ngayon sa mga tuntunin ng isang anunsyo, ang pagpapalawak ng mga tampok sa kaligtasan ng bata sa mga ikatlong partido upang ang mga gumagamit ay mas malawak na protektado ay isang kanais-nais na layunin. Ang Apple ay hindi nagbigay ng anumang partikular na halimbawa, ngunit ang isang posibilidad ay ang tampok na Kaligtasan sa Komunikasyon na ginawang available sa mga app tulad ng Snapchat, Instagram, o WhatsApp upang ang mga tahasang sekswal na larawan na natanggap ng isang bata ay malabo.

Ang isa pang posibilidad ay ang kilalang CSAM detection system ng Apple ay maaaring mapalawak sa mga third-party na app na nag-a-upload ng mga larawan sa ibang lugar kaysa sa iCloud Photos.

Hindi nagbigay ng timeframe ang Apple kung kailan maaaring lumawak ang mga feature sa kaligtasan ng bata sa mga third party, na binabanggit na kailangan pa nitong kumpletuhin ang pagsubok at pag-deploy ng mga feature, at sinabi rin ng kumpanya na kakailanganin nitong tiyakin na ang anumang potensyal na pagpapalawak ay hindi papanghinain ang mga katangian ng privacy o pagiging epektibo ng mga tampok.

Sa malawak na pagsasalita, sinabi ng Apple na ang pagpapalawak ng mga feature sa mga third party ay ang pangkalahatang diskarte ng kumpanya at mula noong ipinakilala nito ang suporta para sa mga third-party na app sa pagpapakilala ng App Store sa iPhone OS 2 noong 2008.