Apples CSAM-detektion förklaras

Apple har nyligen meddelat två funktioner som kommer som en del av en framtida iOS-uppdatering. De två funktionerna har mötts av mycket kritik från integritetsförespråkare. Apple är fortfarande fast i sin övertygelse om att dess tillvägagångssätt inte kränker användarnas integritet.

Apples CSAM-detektion förklaras

Låt oss diskutera vad material för sexuellt övergrepp mot barn (CSAM) är och hur Apple hanterar det, vilket orsakar motreaktioner från integritetsexperter över hela världen.

Vad är CSAM-detektion och hur fungerar det?

Material för sexuella övergrepp mot barn (CSAM) är allt som innehåller sexuellt material relaterat till minderåriga barn. CSAM-detektering är en teknik som hittar sådant innehåll genom att matcha det mot en känd CSAM-databas. 

Apple avslöjade tekniken som en del av en kommande mjukvaruuppdatering. Det fungerar genom att jämföra de bilder som användare laddar upp på iCloud med en känd CSAM-databas som underhålls av National Center for Missing Exploited Children (NCMEC) och andra barnsäkerhetsorganisationer. Men att skanna bilderna skulle vara ett enormt intrång i integriteten, så istället matchar Apples teknik som heter NeuralHash hash av bilderna mot hash som tillhandahålls av NCMEC. 

Databasen med kända CSAM-hashar kommer att lagras på varje enhet. Matchningsprocessen är helt kryptografisk till sin natur. Apple säger att dess kryptografiteknik skapar en säker voucher när en matchning hittas och lagrar resultatet. Bilden och vouchern laddas upp till iCloud om användaren har aktiverat iCloud-fotodelning. 

Vad händer efter att CSAM har upptäckts?

Apple skapade en annan mekanism som gör att vouchern är säker mot alla ingrepp, inklusive Apples. Se det som ett lås som bara låses upp när det träffar ett visst nummer.

Screenshot-1

(Bildkrediter: Apple)

Apple kan inte se bilden som är lagrad i den kryptografiska verifikationen. Men när tröskeln har passerats kommer Apple att vidta en manuell intervention. Denna del är viktig för att säkerställa att systemet inte har skapat ett fel. Någon från Apple kommer manuellt att kontrollera bilden och bekräfta om det verkligen är CSAM. Om bilden visar sig vara CSAM kommer användarens konto att raderas och brottsbekämpande myndigheter kommer att meddelas om personen. 

Apple uppger att den valda tröskeln ger en sannolikhet på 1 på en biljon för att felaktigt flagga ett konto. 

Sekretessfrågor om Apples CSAM-detektion

Det går inte att förneka att CSAM är ett stort problem. När end-to-end-kryptering skapades för att stärka integriteten, gav det också rovdjurssäkerhet från brottsbekämpande myndigheter. De kan dela sådant material och undvika upptäckt av brottsbekämpande myndigheter. 

Ett sätt att förhindra det är att skanna alla bilder som laddas upp till molntjänster, som Dropbox, OneDrive, Google Drive, iCloud. Apple ledde dock ett integritetsfokuserat tillvägagångssätt som inte involverar skanning av bilderna utan istället hash.  

En hash är ett kryptografiskt värde för en indata som har passerats genom en algoritm. Resultatet blir ett hashvärde som är unikt för indata, till exempel en bild. Så istället för att jämföra bilderna själva kan deras hashvärden jämföras för att avgöra om de är samma bilder eller inte. 

Allt det där låter perfekt, eller hur? Inte exakt. Sekretessexperter hävdar att ingenting hindrar Apple från att ersätta databasen med CSAM med en annan. Den nya databasen kan identifiera rättighetsaktivister, frihetsanhängare och allt som inte stödjer en regerings berättelse. Kort sagt, det kan vara vapen för övervakning. 

Sedan tillkännagivandet har Apple varit under beskjutning från integritetsexperter över hela världen. Tekniken beskrivs som en bakdörr som auktoritära regeringar så småningom kommer att använda. 

Även om Apple förbinder sig att inte ge efter för några krav från regeringar, har själva existensen av sådan teknik fått experterna att oroa sig. Integritetsorganisationer som t.ex Electronic Frontier Foundation (EFF) – inklusive ex-CIA whistleblower Edward Snowden – har varit högljudda om flytten. Och så många som 90+ civilsamhällesorganisationer har släppt en öppet brev till Apple att överge lanseringen av sin CSAM-detektionsteknik. Tillkännagivandet har också enligt uppgift väckte kritik inom Apple. 

Intressant nog kämpade samma företag en gång FBI och den federala domstolen mot att skapa ett anpassat OS i San Bernadino-fallet 2015. Apple citerade orsaker till potentiellt missbruk av den anpassade iOS-versionen som kan kringgå iPhones säkerhet, och kallar den till och med "programvara som motsvarar cancer." 

Apple var mycket orolig för att skapa något som hade potential för missbruk. Men flera år på vägen motsäger Apple till synes sin egen hållning om integritet. Medan Apple fortsätter att säga att mycket av skepsisen beror på förvirring kring hur det fungerar, har integritetsexperter avfärdat alla förklaringar som Apple har utfärdat, inklusive en hotmodelldokument som beskriver hur systemet är designat för att hantera störningar och fel. 

Hur man stänger av CSAM-detektion

CSAM-detektionssystem är delvis enhet och delvis moln. Systemet fungerar endast fullt ut när du har aktiverat iCloud Photos. Om du stänger av den inaktiveras den andra halvan av systemet, vilket är nödvändigt för att de upptäckta resultaten ska nå Apple. 

Det finns inget sätt att stänga av skanningen på enheten. Och Apple har gjort systemet sådant

Screenshot-2

att den inte meddelar användaren om en CSAM upptäcks på enheten. 

Vad är kommunikationssäkerhet i meddelanden?

Det finns två delar till Apples CSAM: iCloud och meddelanden. 

Kommunikationssäkerhet för meddelanden fungerar annorlunda än sin iCloud-motsvarighet. Den använder maskininlärning på enheten för att identifiera om ett inkommande eller utgående meddelande innehåller sexuellt explicita foton. Föräldrar kommer att kunna aktivera funktionen för barn på deras iCloud Family-konto. 

Fotot blir suddigt om det är sexuellt explicit och markerat som känsligt. Om användaren ändå fortsätter att se fotot kommer föräldern att få ett meddelande om det. Detta fungerar också när ett barn försöker skicka ett foto som har markerats som sexuellt explicit. 

Slutsats

I en ny utveckling tillkännagav Apple sina planer på att skjuta upp lanseringen av CSAM till senare.

Vi, som integritetsförespråkare, tror starkt på att om verktyg finns kan de manipuleras i dåliga syften. Det finns miljarder iPhones och iPads i världen just nu; att implementera en teknik som med tvång kan ändras för att passa ett syfte av förtryckande regeringar är en verklig möjlighet.

Ta kontroll över din integritet idag! Avblockera webbplatser, få tillgång till streamingplattformar och kringgå ISP-övervakning.

Skaffa sig FastestVPN
Prenumerera på vårt nyhetsbrev
Ta emot veckans trendiga inlägg och de senaste meddelandena från FastestVPN via vårt nyhetsbrev via e-post.
ikon
0 0 avgivna
Artikelbetyg

Du får Gillar också

Prenumerera
Meddela om
gäst
0 Kommentarer
Inline feedbacks
Visa alla kommentarer