Skip to main content

Apple beklager forvirring

Kids on Phones
(Foto: natureaddict / Pixabay)

Apple mener, at annonceringen af funktionen, der skal tjekke iPhone-billeder for misbrug af børn, kendt som børnepornografi, er ”misforstået bredt”. Det skriver MereMobil.dk

”Vi ville ønske, at budskabet var kommet lidt mere klart frem,” har Apples softwarechef Craig Federighi udtalt til The Wall Street Journal.

I interviewet lægger Craig Federighi vægt på, at systemet ikke scanner indhold på brugernes telefoner.

Det er først i det øjeblik, at et foto sendes til iCloud, at systemet undersøger, om billedet er kendt i databasen CSAM, som US National Center for Missing and Exploited Children (NCMEC) står bag.

CSAM indeholder digitale fingeraftryk af kendte ulovlige billeder af børn der mishandles. I scanningen tjekkes, om der er et digitalt match mellem billedet, der uploades, og de kendte billeder i CSAM-databasen.

Systemet analyserer, ifølge Apple, kun de digitale fingeraftryk og ”ser” ikke på selve billedet.

Craig Federighi fortæller i interviewet med WSJ, at Apple ikke lukker din iCloud-konto eller Apple ID, ved et enkelt match.

Der skal ”omkring 30 matches til” inden kontoen bliver markeret til gennemgang. Her vil en medarbejder tjekke de billeder, som har det digitale fingeraftryk. Bekræfter medarbejderen, at der er tale om ulovlige billeder, bliver de relevante myndigheder informeret.

Ifølge Apple kan brugerne stadig have billeder af deres børn ved stranden eller i badekarret på deres telefoner og i iCloud. Det skriver MereMobil.dk