Da Apple sidste måned annoncerede planer om at scanne billeder, der blev uploaded til backup på iCloud, for seksuelt misbrug af børn, rejste sig en bølge af kritik.
Den massive kritik, der har kørt den eneste måned, har fået Apple til at udskyde planerne om at scanne for det ulovlige materiale.
”Vi annoncerede i sidste måned planer om funktioner til at beskytte børn mod de rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem. Vi ville begrænse spredning af materiale med seksuelt misbrug af børn. Efter feedback fra kunder, forskere og andre grupper, har vi besluttet at bruge ekstra tid over de kommende måneder til at indsamle input og foretage forbedringer, før vi frigiver disse vigtige sikkerhedsfunktioner,” udtaler Apple om sagen i et officielt statement.
Organisationen Electronic Frontiers Foundation, der har indsamlet over 25.000 underskrifter mod Apples tiltag, er ikke faldet til ro efter udskydelsen. Til BBC siger de, at de stadig forlanger, at Apple ikke bare skal lytte men droppe planerne helt.
- Apple beklager forvirring
- De bedste antivirus-programmer i 2021
- Er gratis antivirus nok til at beskytte min computer
Kritikken mod Apple kom fra iPhone-ejere såvel som sikkerhedseksperter, som kritiserede Apple for at gå på kompromis med tidligere løfter om, at beskytte brugernes privatliv.
Kan man scanne for én ting, kan man i princippet scanne for hvad som helst, lød det. Ondsindede regimer vil kunne udnytte funktionen ved at lægge pres på Apple, lød kritikken. Herefter kom der et officielt opråb til Apple om at droppe planerne.
Apples reaktion var at præcisere hvad de tidligere havde sagt; vi scanner ikke dine billeder, men ser på et digitalt match i billedet op mod kendte misbrugsbilleder i CSAM-databasen som US National Center for Missing and Exploited Children (NCMEC) står bag.