Apple a confirmat că își va amâna planurile de a începe scanarea dispozitivelor iPhone în vederea descoperirii de materiale ce constituie abuzuri sexuale la adresa minorilor (Child Sexual Abuse Material, CSAM). Decizia a fost luată după reacțiile negative ale cercetătorilor din domeniul securității, activiștilor pentru confidențialitate și utilizatorilor Apple.
Luna trecută, compania a anunțat că are planuri de a-și extinde politicile de protecție a minorilor, luându-și libertatea de a scana fotografiile utilizatorilor pentru a identifica materiale ce constituie abuzuri sexuale la adresa minorilor.
Tehnologia, dezvoltată în colaborare cu experții din domeniul protecției copilului, ar permite companiei să identifice materialele CSAM cunoscute, stocate în galeriile iCloud ale utilizatorilor. Compania plănuia să efectueze scanări de corelare pe dispozitive, folosind o bază de date ce conține coduri hash cunoscute ale unor imagini CSAM, furnizate de NCMEC (National Center for Missing and Exploited Children) și de alte organizații pentru protecția copilului.
După ce s-a confruntat cu reacții negative după anunțarea tehnologiei, Apple s-a înarmat cu două lucrări tehnice transparente care oferă informații detaliate despre tehnologia de detecție a materialelor CSAM și a subliniat faptul că funcția oferă considerabil mai multe beneficii de confidențialitate decât tehnicile existente. Raționamentul companiei: un revizor uman ar analiza fotografiile utilizatorului doar dacă acesta are o colecție de materiale CSAM cunoscute în contul său de Fotografii din iCould și dacă se depășește un anumit prag în ceea ce privește corelarea codurilor hash ale fișierelor.
Grupurile de activiști și analiștii din domeniul securității cibernetice au atacat decizia, temându-se că va oferi guvernelor mai multă libertate pentru a monitoriza utilizatorii.
Apple a dat recent o declarație pentru mai multe canale de media, în care a confirmat că a amânat lansarea programului.
„Luna trecută, ne-am anunțat planurile pentru lansarea unor caracteristici menite să contribuie la protejarea copiilor împotriva agresorilor care utilizează instrumente de comunicare pentru a-i recruta și exploata, și să limiteze răspândirea Materialelor ce constituie abuzuri sexuale la adresa minorilor”, a declarat un reprezentant al companiei.
„Pe baza feedback-ului primit de la clienți, grupuri de activiști, cercetători și alte persoane, am decis să acordăm mai mult timp în lunile viitoare pentru a colecta conținut și a efectua îmbunătățiri înainte de a lansa aceste caracteristici extrem de importante pentru protecția copilului.”
Inițial, Apple plănuia să instaleze caracteristica o dată cu lansarea versiunii iOS 15 de anul acesta.
tags
The meaning of Bitdefender’s mascot, the Dacian Draco, a symbol that depicts a mythical animal with a wolf’s head and a dragon’s body, is “to watch” and to “guard with a sharp eye.”
Toate articolele