-
PLUS
Krönika: Mobiltillverkare för första gången, igen
-
PLUS
11 tips: Google-appen som kan mycket mer än du tror
-
PLUS
Krönika: Google är bra på gratis men usla på att ta betalt
-
PLUS
Så kan Xiaomi-telefonen bli Mac-datorns och Iphones bästa vän
-
PLUS
Chromecast-problemen visar hur svårt det är att lita på Google och andra jättar
-
PLUS
Passkeys: Därför behöver du veta mer om dem
-
PLUS
Krönika: Lärdomar från MWC 2025 – röststyrning är AI:s värsta fiende
-
PLUS
Fördjupning: Tankar och teknik bakom kamerorna i Samsung Galaxy S25
-
PLUS
Mobil svarar om Telenor-problem, seniorklocka, Airtag-konkurrenter och mer utrymme i Google Foto
-
PLUS
Krönika: Dilemmat när Apple dödar sin sista och enda kompakta Iphone
Hur man än vänder sig
Apple stämda för något de inte gjort

Nu har Apple blivit stämda för att inte implementerade ett verktyg som blev så kritiserat att företaget backade.
I augusti 2021 meddelade Apple att de planerade att lansera ett verktyg kallat Child Sexual Abuse Material (CSAM). Verktyget skulle automatiskt genomsöka användares iCloud-bibliotek efter bilder som misstänktes föreställa sexuella övergrepp mot barn.
Funktionen möttes av massiv kritik, bland annat för att det ansågs vara ett intrång i den personliga integriteten. Kritiker hävdade också att Apple skulle kunna tvingas av stater och andra mäktiga intressenter att använda funktionen för att leta efter bilder med annat innehåll än CSAM.
I september 2021 meddelade Apple att de lade funktionen på is, och i december samma år att de lagt ner alla planer på att lansera verktyget för att undvika stämningar.
Nu rapporterar publikationen Engadget att Apple har stämts på 1,2 miljarder dollar av 2680 offer för sexuella övergrepp mot barn för att företaget inte genomförde sina planer med CSAM. Offren hävdar att Apples passivitet har lett till fortsatt spridning av material.
I ett uttalande till Engadget säger Apples talesperson Fred Sainz att “Material med sexuella övergrepp mot barn är avskyvärt och vi är fast beslutna att bekämpa de sätt på vilka förövare utsätter barn för risker. Vi arbetar snabbt och aktivt med innovationer för att bekämpa dessa brott utan att kompromissa med säkerheten och integriteten för alla våra användare.”