Apple uvodi sistem za identifikaciju dečije pornografije
6.8.2021 08:35 Autor: Miljan Paunović
Kompanija Apple planira da skenira američke iPhone telefone zbog fotografija seksualnog zlostavljanja dece, što je naišlo na odobravanje organizacija za zaštitu dece i izazvalo zabrinutost među nekim bezbednosnim istraživačima da bi vlade mogle da zloupotrebe sistem za nadzor svojih građana .
Apple je objavio detalje sistema za pronalaženje materijala seksualnog zlostavljanja dece (CSAM) na uređajima korisnika u Sjedinjenim Američkim Državama, prema kojima će pre nego što se fotografija uskladišti na iCloud, tehnologija tražiti podudaranja sa već poznatim CSAM, prenosi Tanjug, pozivajući se na BBC.
Sistem funkcioniše tako što upoređuje fotografije sa bazom poznatih slika seksualnog zlostavljanja dece koju su sastavili američki Nacionalni centar za nestalu i eksploatisanu decu (NCMEC) i druge organizacije za zaštitu dece.
Kompanija tvrdi da sistem ima izuzetno visok nivo tačnosti i osigurava manje od jedne od trilion šansi godišnje da se pogrešno označi dati nalog, a da će da, ako se pronađe podudaranje, ljudski faktor dalje ručno raditi procenu i prijaviti takvog korisnika policiji.
Međutim, postoji zabrinutost zbog ugrožavanja privatnosti i da bi ova tehnologija mogla da se proširi na skeniranje telefona u potrazi za zabranjenim sadržajem ili čak političkim govorom, a stručnjaci strahuju da bi autoritarne vlade mogle da koriste tu tehnologiju za špijuniranje svojih građana.