Apple börjar genomsöka iCloud och Meddelanden efter pornografiskt innehåll

Från sajten:
image

Apple vill hindra spridning av porr till barn samt barnpornografi till vuxna.

I och med att nästa version av operativsystemen till Apples olika produkter kommer man påbörja automatiskt genomsökning iCloud och meddelande som skickas via Apples egna Meddelande-tjänst.

Det hela är uppdelat i tre steg. För närvarande kommer det endast gälla amerikanska användare.

Porrfilter i Meddelande-appen

Om ett foto av så kallad ”sex­uell natur” skickas till eller från ett barn så kommer det inte visas direkt. I stället kommer ett varningsmeddelande fram om att bilden kan vara av känslig natur och de får välja om de skall titta på den. Det samma gäller om barnet är den som skickar bilden. Barnets föräldrar kommer också få reda på vad som pågår och detta informeras även barnet om. Ett barn är i detta fall någon som är under 13 år och är en del av Apples Familjedelning.

Funktionen är en del av själva appen och inte Apples meddelandetjänst vilket betyder att det gäller både SMS och meddelanden som går via Apples servrar. Ingen utom föräldrar och barnet kan se vad som pågår och det är något som föräldrar aktivt måste aktivera.

Detta kommer gälla Meddelande-appen på iOS 15, iPadOS 15 och macOS Monterey.

iOS porrfilter

Identifiering av barnpornografi iCloud-bilder

Innan en bild laddas upp till Bilder i iCloud kommer en genomsökning ske som sedan matchas mot en databas som amerikanska National Center for Missing and Exploited Children (NCMEC) står bakom. Matchningen sker genom att att bilddatan envägsomvandlas till ett beskrivande värde, så kallade hashing. Lite som lösenord hanteras idag, ingen kan läsa dem men de kan jämföras med en existerande databas.

Här är det viktigt att poängtera att systemet inte ser bilden för vad den är, inte heller två olika bilder tagna vid samma tillfälle på samma motiv kommer kunna matchas ihop. Utan det är om redan existerande foton, som finns i NCMECs databas, sprids via iCloud Bilder som den flaggas. Detta gäller även om bilden är beskuren eller på annat sätt förändrats. Det betyder att användarnas egna foton på sina barn, spritt språngande nakna eller ej, inte påverkas på något vis.

Skulle flera bilder flaggas från samma användare går det till en manuell bedömning hos Apple som sedan tar det vidare till NCMEC och polisära myndigheter. Enligt Apple är systemet mycket säkert och man räknar med en felrisk på mindre än en på en biljard, per år.

Detta gäller iOS 15 samt iPadOS 15. Ej macOS.

National Center for Missing and Exploited Children är tillsatt av amerikanska regeringen och den enda organisation som lagligt får inneha denna typen av material.

Siri hjälper till och håller vakande öga

Barn och vuxna kommer kunna fråga Siri om hjälp om hur de skall hålla sig säkra på nätet eller hur de skall göra om de upplever en situation om är obehaglig. Vidare kommer Siri säga till om systemet tycker att en användare söker på något den inte borde söka på i dessa sammanhang.

Siri håller koll

Kritik

Det är inte helt oproblematiskt när ett företag lägger sig i vad deras användare använder sin telefon till. I ett öppet brev som vem som helst kan skriva under tas det faktum upp att Apple nu skapar en bakdörr i vad som annars anses vara krypterad personlig information. En bakdörr som kan börja missbrukas och citerar CDT (Center for Democracy & Technology) som menar på att en ny norm skapas. En norm som gör det betydligt lättare för mindre nogräknade företag och regeringar jorden runt att övervaka och censurera.

EFF (Electronic Frontier Foundation) delar kritiken och sörjer det faktum att Apple tidigare var det företag som starkast tagit strid för end-to-end-kryptering, ofta till amerikanska polisväsendets stora förtret. EFF menar på att även om barns säkerhet på nätet är viktigt så är en bakdörr fortfarande en bakdörr. Med det menar de att det i slutändan är det omöjligt att bygga ett system som enbart kan användas till goda saker.

Och enligt principen små stegens tyranni, eller slippery slope på engelska, så riskerar Apple att tweaka systemet allteftersom för att inkludera fler typer av innehåll som man söker efter och varnar sina användare för.

Ett annat problem är vad Apples kan tvingas göra i vissa länder där exempelvis “homosexuell propaganda” är olagligt med hänsyn till barnen.

Alternativ

Än så länge gäller den nya given endast amerikanska användare. Men vill du användare en meddelandetjänst med end-to-end-kryptering utan möjlighet till någon bakdörr så finns Signal. Notera dock att om Apple får för sig att integrera funktionen på operativsystemnivå blir end-to-end-kryptering utan en bakdörr omöjligt på Apples plattform oavsett app.

När det kommer till fillagring är det egen NAS som gäller om du vill vara helt säker på att ingen söker igenom innehållet.

Utan att ha läst på mer än vad som skrivs i denna artikel så måste jag säga att jag blir jävligt besviken på Apple.

Tanken är god men detta raserar för mig mycket av det jag har högaktat dem för, användarens odiskutabla ensamrätt till ens egen data.

6 gillningar

Inte för jag har några bilder eller innehåll jag behöver vara orolig för att någon annan tittar på men finns det något alternativ till iCloud för en iPhone?

Barnporr ska slås ned med alla stående medel IMHO, om detta på något litet sätt inskränker på min integritet så ställer iaf jag upp till 100%

3 gillningar

Hur mycket är en biljard?

Som det står i artikeln kan en NAS vara ett altenativ. Jag använder det sedan ett tag tillbaka.

Ungefär exakt så här mycket: En biljard (äldre stavning billiard) betecknar det mycket stora talet 1 000 000 000 000 000

dvs, en milion x 1000 = en biljon x 1000 = en biljard osv.

Inget vad jag vet som blir lika enkelt som iCloud då väldigt många appar, både Apples och 3:e parts använder iCloud för synkning mellan enheter etc, men jag använder bla Google Drive också men mer som ett komplement för större filer… 4+GB, eller att köra egen NAS eller DAS som timofej skriver.

Inte eller påläst, men håller med.

När de väl har tillgång vår data, ska vi lita på dom? Varför ska vi lita på dom? Varför skulle de inte utnyttja den info de har, de är fortfarande ett vinstdrivande företag.

Samtidigt är det strålande att de gör en insats mot barnporr!

Allmänna frågor och tankar, såg att jag taggat dig dock :slight_smile:

1 gillning

1 miljon x 1000 = 1 miljard
1 miljard x 1000 = 1 biljon
1 biljon x 1000 = 1 biljard

Lätt att blanda ihop engelskans billion som betyder miljard :slightly_smiling_face:

Håller med att barnporr ska bekämpas men problemet är att det blir ändamålsglidning så det är mer än ursäkt för att kunna starta en allmän övervakning längre fram. Nu när vi övervakar för barnporr så kan vi även övervaka för x, y och z också.

9 gillningar
1 gillning

Trodde att det var ett bordspel. Och att 10^15 (som jag tolkar era svar) hette kvadriljon. Men det är bara olika benämning i olika länder.

Det är bra att de inte kan se själva bilderna utan bara ett fingeravtryck av dem. Det som är oroande om de blir tvingade att utöka databasen med otillåtna bilder.

Ja. I praktiken skulle ju mindre demokratiska länder kunna ge Apple fingerprints utan att dom vet vad dom innehåller. Kina tex där dom fått anpassa sig till lagar och regler när det gäller iCloud.

I Kina har Apple lämnat över iCloud-hostingen till kinesiska myndigheter redan.

1 gillning

Ja, det finns två “typer” den ena heter long och den andra heter short så det är lätt att bli förvirrad :slight_smile:

Man får ju hoppas att Apple klarar av att leverera på ett sätt så det inte blir en allmän bakdörr för övervakning… dom brukar ju vara rätt smarta…

Verkligen. I detta fallet översatte jag trillion.