Apple va scana TOATE POZELE din iPhone și iCloud. Explicațiile companiei

apple_20816700
Măsura anunțată de Apple este considerată o invadare a vieții private
La câteva zile după ce Apple a introdus softul Neuralmatch pentru detectarea materialelor legate de pornografie infantilă (CSAM), compania a lansat acum un document în care încearcă să liniștească apele. Compania spune că ar fi vorba despre o confuzie pe care actualizările sale o provoacă în rândul publicului larg. Instrumentul, planificat să fie lansat mai târziu în acest an, a devenit cauza unui val de reacții atât pozitive dar și extrem de multe critici.

În timp ce unii s-au bucurat că Applea încearcă să abordeze problema pornografiei infantile, alții au numit instrumentul o pantă alunecoasă care, în viitor, ar permite guvernelor să spioneze utilizatorii.

Săptămâna trecută a fost anunțat că programul Neuralmatch al Apple va permite companiei să scaneze imagini pe iPhone-urile și iCloud-ul utilizatorilor, în căutarea unor imagini „cunoscute” a fi pornografie infantilă. 

În cazul în care softul ar găsi pe un dispozitiv astfel de imagini, compania va demara o revizuire umană a materialului, va dezactiva contul utilizatorului și îl va raporta la Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC). În contrast puternic cu valorile companiei de a proteja confidențialitatea utilizatorilor, experții au susținut că un astfel de instrument invaziv ar putea fi refăcut pentru a căuta alte materiale la cererea guvernului.

Proces antitrust, intentat Amazon. Primul proces al companiei în SUA

O parte din confuzie pare să se fi produs din cauza lansării planificate a unui alt instrument de la Apple, numit siguranța comunicării în Messages. Acest instrument se adresează utilizatorilor pre-adolescenți de dispozitive Apple și este conceput pentru a detecta imagini cu caracter sexual partajate prin serviciul său de mesagerie, iMessage. Pentru ca acest instrument să funcționeze, un dispozitiv trebuie să fie înregistrat la o persoană cu vârsta de cel puțin 12 ani și să fie configurat ca un cont pentru copil în funcția de partajare a familiei de la Apple.

Când aceste condiții prealabile sunt îndeplinite, iPhone-urile vor analiza imaginile trimise sau primite prin iMessage și le vor estompa, dacă se constată că sunt explicite sexual. În plus, aplicația va avertiza copilul să nu acceseze imaginea, oferind în același timp resurse pentru a-l ajuta, a spus Apple în documentul său de întrebări frecvente. Ca un factor suplimentar de protecție, tânărul utilizator va fi, de asemenea, notificat că, dacă utilizatorul continuă și accesează imaginea, va fi informat și un părinte.

Aceste actualizări vor fi lansate doar în SUA, deocamdată, iar compania va face o revizuire de la caz la caz înainte de a le lansa în alte regiuni, relatează Gizmodo. Cu toate acestea, nu toată lumea este convinsă de aceste noi aplicații. Se spune că Apple respinge că vor avea loc presiuni guvernamentale pentru a-și menține activitatea în anumite domenii.

Oana Pavelescu este jurnalist specializat în domeniul economic și financiar, cu experiență solidă în analiza politicilor fiscale, a piețelor energetice și a evoluțiilor macroeconomice din România și din spațiul european. Abordează subiectele cu rigoare, atenție la detaliu și orientare către impactul concret asupra mediului de afaceri și asupra populației. Are expertiză în interpretarea documentelor oficiale – de la acte normative publicate în Monitorul Oficial până la rapoarte ale BNR, ANRE sau ale altor instituții-cheie – pe care le transformă în materiale clare, bine structurate și relevante pentru publicul interesat de economie, companii și politici publice.
Articole recomandate Vezi toate articolele
x close