Dagens PS

Apple väntar med att skanna för barnpornografi

Apple skjuter upp sitt system för att hindra spridning av bilder på sexuellt utnyttjade barn.
Apple skjuter upp sitt system för att hindra spridning av bilder på sexuellt utnyttjade barn. (Foto:TT)
Malin Beeck
Malin Beeck
Uppdaterad: 15 nov. 2021Publicerad: 03 sep. 2021

Apple skjuter upp en funktion som ska skanna användares bilder för övergrepp på barn. Anledningen är att funktionen kan användas på ett integritetskränkande sätt, skriver CNBC.

ANNONS
ANNONS

Mest läst i kategorin

I augusti i år gick Apple ut med informationen att företaget kommer att rapportera bilder som föreställer övergrepp på barn, om dessa återfinns i användares iCloud.

Apples system CSAM – Child Sexual Abuse Material – skulle användas för att skanna efter sådana bilder.

Den metod som Apple planerat att använda sig av är så kallad called hashing, Den går ut på att kända bilder av övergrepp mot barn blir märkta med en kod, eller ett digitalt fingeravtryck, som gör att det går att hitta dem utan att titta på själva bilden. Liknande teknik finns redan på flera andra molntjänster, som Google.

Om det visar sig att ett visst antal sådana bilder finns hos en användare får Apple ett meddelande och en fysisk person kan titta på kontot.

Förutom att systemet hittar bilder som används som barnpornografi skulle det också innebära att föräldrar blir kontaktade om deras minderåriga barn får meddelanden med sexuellt innehåll.

Det finns också en funktion för att se till att intima delar av kroppen blir suddiga om barnet försöker fotografera eller filma dem med en iPhone.

Det nya systemet startades upp i augusti, med målet att de flesta användare inte skulle beröras av funktionen förrän nästa år. Men nu fördröjs satsningen.

“Baserat på reaktioner som vi har fått från kunder, intressegrupper, forskare och andra, så har vi beslutat att vänta ytterligare en tid för att ta till oss reaktionerna och göra förbättringar innan vi släpper de här viktiga säkerhetsfunktionerna”, skriver bolaget i ett pressmeddelande.

ANNONS

Anledningen till förseningen är antagligen den oro som en del debattörer uttryckte i samband med att systemet presenterades i början av augusti.

Kritiker är oroliga för att samma teknik skulle kunna användas för att identifiera personer som har deltagit  politiska manifestationer, med tanke på att Apple har en stor kundkrets i bland annat Kina. Apple har emellertid tillbakavisat detta, eftersom det bara är bilder på barn som blir utnyttjade som systemet letar efter.

Det ska inte heller vara möjligt för systemet att ta bort föräldrars bilder på sina barn.

Det är oklart hur länge Apple kommer att dröja med att implementera CSAM.

Läs också:

Kvinna skickade iPhone till Apple – som läckte nakenbilder
Nytt skydd från Apple – du blir osynlig

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
ANNONS
ANNONS

Senaste nytt

ANNONS