Apple News

Ipinapakilala ng Apple ang Mga Bagong Tampok sa Kaligtasan ng Bata, Kasama ang Pag-scan sa Mga Photo Library ng Mga Gumagamit para sa Kilalang Materyal na Pang-aabusong Sekswal

Huwebes Agosto 5, 2021 1:00 pm PDT ni Joe Rossignol

Apple ngayon na-preview ang mga bagong feature sa kaligtasan ng bata na darating sa mga platform nito na may mga update sa software sa huling bahagi ng taong ito. Sinabi ng kumpanya na ang mga feature ay magiging available lamang sa U.S. sa paglulunsad at mapapalawak ito sa ibang mga rehiyon sa paglipas ng panahon.





tampok sa kaligtasan ng komunikasyon sa iphone

Kaligtasan sa Komunikasyon

Una, ang Messages app sa iPhone, iPad, at Mac ay makakakuha ng bagong feature na Kaligtasan sa Komunikasyon upang balaan ang mga bata at kanilang mga magulang kapag tumatanggap o nagpapadala ng mga tahasang sekswal na larawan. Sinabi ng Apple na ang Messages app ay gagamit ng on-device machine learning upang pag-aralan ang mga attachment ng larawan, at kung ang isang larawan ay natukoy na tahasang sekswal, ang larawan ay awtomatikong malalabo at ang bata ay babalaan.



hindi ko maipares ang apple watch ko

Kapag sinubukan ng isang bata na tingnan ang isang larawang na-flag bilang sensitibo sa Messages app, aalertuhan siya na ang larawan ay maaaring naglalaman ng mga pribadong bahagi ng katawan, at maaaring nakakasakit ang larawan. Depende sa edad ng bata, magkakaroon din ng opsyon para sa mga magulang na makatanggap ng notification kung magpapatuloy ang kanilang anak na tingnan ang sensitibong larawan o kung pipiliin nilang magpadala ng tahasang sekswal na larawan sa isa pang contact pagkatapos na bigyan ng babala.

Sinabi ng Apple na ang bagong tampok na Kaligtasan ng Komunikasyon ay darating sa mga update sa iOS 15, iPadOS 15 at macOS Monterey sa huling bahagi ng taong ito para sa mga account na naka-set up bilang mga pamilya sa iCloud. Tiniyak ng Apple na ang mga pag-uusap sa iMessage ay mananatiling protektado ng end-to-end na pag-encrypt, na ginagawang hindi nababasa ng Apple ang mga pribadong komunikasyon.

Pag-scan ng Mga Larawan para sa Child Sexual Abuse Material (CSAM)

Pangalawa, simula ngayong taon gamit ang iOS 15 at iPadOS 15, matutukoy ng Apple ang mga kilalang Child Sexual Abuse Material (CSAM) na mga larawang naka-imbak sa iCloud Photos, na magbibigay-daan sa Apple na iulat ang mga pagkakataong ito sa National Center for Missing and Exploited Children (NCMEC) , isang non-profit na organisasyon na nagtatrabaho sa pakikipagtulungan sa mga ahensyang nagpapatupad ng batas ng US.

Sinabi ng Apple na ang paraan nito sa pag-detect ng kilalang CSAM ay idinisenyo nang nasa isip ang privacy ng user. Sa halip na mag-scan ng mga larawan sa cloud, sinabi ng Apple na magsasagawa ang system ng on-device na pagtutugma laban sa isang database ng mga kilalang CSAM image hash na ibinigay ng NCMEC at iba pang organisasyon ng kaligtasan ng bata. Sinabi ng Apple na higit nitong ibahin ang database na ito sa isang hindi nababasang hanay ng mga hash na ligtas na nakaimbak sa mga device ng mga user.

Sinusuri ng teknolohiya ng hashing, na tinatawag na NeuralHash, ang isang imahe at kino-convert ito sa isang natatanging numero na partikular sa larawang iyon, ayon sa Apple.

'Ang pangunahing layunin ng hash ay upang matiyak na ang magkapareho at biswal na magkatulad na mga imahe ay nagreresulta sa parehong hash, habang ang mga imahe na naiiba sa isa't isa ay nagreresulta sa iba't ibang mga hash,' sabi ng Apple sa isang bagong 'Expanded Protections for Children' white paper. 'Halimbawa, ang isang imahe na bahagyang na-crop, na-resize o na-convert mula sa kulay tungo sa itim at puti ay itinuturing na kapareho ng orihinal nito, at may parehong hash.'

apple csam flow chart
Bago i-store ang isang larawan sa iCloud Photos, sinabi ng Apple na ang isang on-device na proseso ng pagtutugma ay isinasagawa para sa larawang iyon laban sa hindi nababasang hanay ng mga kilalang CSAM na hash. Kung may tugma, gagawa ang device ng cryptographic safety voucher. Ang voucher na ito ay na-upload sa iCloud Photos kasama ang larawan, at kapag nalampasan na ang hindi nabunyag na threshold ng mga tugma, magagawa ng Apple na bigyang-kahulugan ang mga nilalaman ng mga voucher para sa mga tugma ng CSAM. Pagkatapos ay manu-manong sinusuri ng Apple ang bawat ulat upang kumpirmahin na may tugma, hindi pinagana ang iCloud account ng user, at nagpapadala ng ulat sa NCMEC. Hindi ibinabahagi ng Apple kung ano ang eksaktong threshold nito, ngunit tinitiyak ang isang 'napakataas na antas ng katumpakan' na ang mga account ay hindi na-flag nang mali.

Sinabi ng Apple na ang paraan nito sa pag-detect ng kilalang CSAM ay nagbibigay ng 'makabuluhang benepisyo sa privacy' sa mga kasalukuyang pamamaraan:

• Ang system na ito ay isang epektibong paraan upang matukoy ang kilalang CSAM na nakaimbak sa mga iCloud Photos account habang pinoprotektahan ang privacy ng user.
• Bilang bahagi ng proseso, hindi rin matututunan ng mga user ang anumang bagay tungkol sa hanay ng mga kilalang larawan ng CSAM na ginagamit para sa pagtutugma. Pinoprotektahan nito ang mga nilalaman ng database mula sa malisyosong paggamit.
• Napakatumpak ng system, na may napakababang rate ng error na mas mababa sa isa sa isang trilyong account bawat taon.
• Ang system ay higit na pinapanatili ang privacy kaysa sa cloud-based na pag-scan, dahil nag-uulat lamang ito ng mga user na may koleksyon ng kilalang CSAM na naka-imbak sa iCloud Photos.

Ang pinagbabatayan na teknolohiya sa likod ng sistema ng Apple ay medyo kumplikado at ito ay naglathala ng isang teknikal na buod na may higit pang mga detalye.

'Ang pinalawak na proteksyon ng Apple para sa mga bata ay isang laro changer. Sa napakaraming tao na gumagamit ng mga produkto ng Apple, ang mga bagong hakbang na pangkaligtasan na ito ay may potensyal na nagliligtas ng buhay para sa mga bata na na-engganyo online at ang mga kasuklam-suklam na larawan ay ipinakalat sa materyal na pang-aabusong sekswal sa bata,' sabi ni John Clark, ang Presidente at CEO ng National Center for Missing & Pinagsamantalahang mga Bata. 'Sa National Center for Missing & Exploited Children alam namin na ang krimeng ito ay masusugpo lamang kung kami ay matatag sa aming dedikasyon sa pagprotekta sa mga bata. Magagawa lang namin ito dahil ang mga kasosyo sa teknolohiya, tulad ng Apple, ay sumusulong at ipinapahayag ang kanilang dedikasyon. Ang katotohanan ay ang privacy at proteksyon ng bata ay maaaring magkasabay. Pinupuri namin ang Apple at inaasahan namin ang pagtutulungan upang gawing mas ligtas na lugar ang mundong ito para sa mga bata.'

Pinalawak na CSAM Guidance sa Siri at Search

iphone csam siri
Pangatlo, sinabi ng Apple na magpapalawak ito ng patnubay sa Siri at Spotlight Search sa mga device sa pamamagitan ng pagbibigay ng mga karagdagang mapagkukunan upang matulungan ang mga bata at magulang na manatiling ligtas online at makakuha ng tulong sa mga hindi ligtas na sitwasyon. Halimbawa, ang mga user na nagtatanong kay Siri kung paano sila makakapag-ulat ng CSAM o child exploitation ay ituturo sa mga mapagkukunan kung saan at kung paano maghain ng ulat.

Ang mga update sa Siri at Search ay darating mamaya sa taong ito sa isang update sa iOS 15, iPadOS 15, watchOS 8, at macOS Monterey, ayon sa Apple.

Tandaan: Dahil sa pulitikal o panlipunang katangian ng talakayan tungkol sa paksang ito, ang thread ng talakayan ay matatagpuan sa aming Balitang Pampulitika forum. Ang lahat ng mga miyembro ng forum at mga bisita sa site ay malugod na tinatanggap na basahin at sundin ang thread, ngunit ang pag-post ay limitado sa mga miyembro ng forum na may hindi bababa sa 100 mga post.

Tags: Apple privacy , Apple child safety feature