Apple skjuter upp en funktion som ska skanna användares bilder för övergrepp på barn. Anledningen är att funktionen kan användas på ett integritetskränkande sätt, skriver CNBC.

ANNONS

I augusti i år gick Apple ut med informationen att företaget kommer att rapportera bilder som föreställer övergrepp på barn, om dessa återfinns i användares iCloud.

Apples system CSAM – Child Sexual Abuse Material – skulle användas för att skanna efter sådana bilder.

Den metod som Apple planerat att använda sig av är så kallad called hashing, Den går ut på att kända bilder av övergrepp mot barn blir märkta med en kod, eller ett digitalt fingeravtryck, som gör att det går att hitta dem utan att titta på själva bilden. Liknande teknik finns redan på flera andra molntjänster, som Google.

Om det visar sig att ett visst antal sådana bilder finns hos en användare får Apple ett meddelande och en fysisk person kan titta på kontot.

Förutom att systemet hittar bilder som används som barnpornografi skulle det också innebära att föräldrar blir kontaktade om deras minderåriga barn får meddelanden med sexuellt innehåll.

ANNONS
ANNONS

Det finns också en funktion för att se till att intima delar av kroppen blir suddiga om barnet försöker fotografera eller filma dem med en iPhone.

Det nya systemet startades upp i augusti, med målet att de flesta användare inte skulle beröras av funktionen förrän nästa år. Men nu fördröjs satsningen.

“Baserat på reaktioner som vi har fått från kunder, intressegrupper, forskare och andra, så har vi beslutat att vänta ytterligare en tid för att ta till oss reaktionerna och göra förbättringar innan vi släpper de här viktiga säkerhetsfunktionerna”, skriver bolaget i ett pressmeddelande.

Anledningen till förseningen är antagligen den oro som en del debattörer uttryckte i samband med att systemet presenterades i början av augusti.

Kritiker är oroliga för att samma teknik skulle kunna användas för att identifiera personer som har deltagit  politiska manifestationer, med tanke på att Apple har en stor kundkrets i bland annat Kina. Apple har emellertid tillbakavisat detta, eftersom det bara är bilder på barn som blir utnyttjade som systemet letar efter.

Det ska inte heller vara möjligt för systemet att ta bort föräldrars bilder på sina barn.

ANNONS
ANNONS

Det är oklart hur länge Apple kommer att dröja med att implementera CSAM.

Läs också:

Kvinna skickade iPhone till Apple – som läckte nakenbilder
Nytt skydd från Apple – du blir osynlig