Fortsätt till innehåll

hero-ncmec.jpg

NCMEC, Google och bildhash-teknik

I USA tar National Center for Missing & Exploited Children (NCMEC) emot miljontals rapporter om material som visar sexuella övergrepp mot barn online varje år. Michelle DeLaune, Senior Vice President och Chief Operating Officer på NCMEC, berättar om organisationens utveckling, hur teknikföretag intensifierar arbetet med att bekämpa CSAM och om Googles API för hashmatchning.

Dela

Kan du berätta om NCMEC och vad din roll är?

Jag har varit på NCMEC i över 20 år, så jag har sett organisationens utveckling och de utmaningar och hot som våra barn och deras säkerhet står inför. Jag började min karriär här som CyberTipline-analytiker.

CyberTipline skapades och lanserades 1998 som ett sätt för allmänheten att rapportera potentiella incidenter av utnyttjande av barn. Vid den tidpunkten fick vi rapporter från föräldrar som var oroliga för att en vuxen pratade olämpligt med deras barn online och från personer som stött på webbplatser som innehöll material som visar sexuella övergrepp mot barn. Sedan antogs en federal lag i USA som krävde att amerikanska teknikföretag rapporterade alla uppenbara incidenter av material som visar sexuellt övergrepp mot barn på sina system till CyberTipline.

I början kunde vi få över 100 rapporter om exploatering av barn i veckan. Vi fick vår första rapport från ett teknikföretag 2001. År 2021 får vi cirka 70 000 nya rapporter varje dag. Vissa av dem kommer från allmänheten, men majoriteten av våra rapporter skickas in av teknikföretag.

ncmec-image-1.jpg

Hur hjälper NCMEC onlineföretag att bekämpa material som visar sexuella övergrepp mot barn?

Lagen kräver inte att företag gör något proaktivt. Om de upptäcker eller blir medvetna om material som visar sexuella övergrepp mot barn måste de rapportera det. Det är detta som är drivkraften bakom den instrumentella tillväxt vi har sett i CyberTipline under åren. Men under de senaste fem åren har det skett en betydande ökning av antalet rapporter. Denna ökning kan tillskrivas de insatser som många teknikföretag frivilligt gör för att proaktivt upptäcka, ta bort och rapportera material som visar sexuella övergrepp mot barn.

Ett av de viktigaste programmen som vi driver på National Center for Missing & Exploited Children är hashdelningsplattformar, både för branschen att bidra till och en annan för utvalda icke-statliga organisationer att bidra till. Via NCMEC:s plattform för hashdelning för ideella organisationer får intresserade teknikföretag över fem miljoner hashvärden för bekräftat, trippelverifierat material som visar sexuella övergrepp mot barn för att hjälpa dem i deras arbete med att bekämpa sådant material i sina nätverk. Många stora företag, inklusive Google, har använt sig av listan och vidtar proaktiva åtgärder för att ta bort material som visar sexuella övergrepp mot barn från sina plattformar. Listan gör det även möjligt för andra välrenommerade icke-statliga organisationer som arbetar med barn att tillhandahålla sina hashar till teknikbranschen via NCMEC:s hashplattform, för att minimera behovet av att ett teknikföretag kontaktar varje icke-statlig organisation individuellt.

Vi erbjuder även en plattform för hashdelning inom branschen, som gör det möjligt för utvalda företag att dela sina egna hashar för material som visar sexuella övergrepp mot barn med varandra. Vi ser till att alla företag som vill och kan identifiera detta material proaktivt har alla verktyg de behöver för att göra det och att företag kan dela sina egna CSAI-hashar med varandra. Google är den största bidragsgivaren till den här plattformen med cirka 74 % av det totala antalet hashvärden på listan.

Med tanke på antalet rapporter vi får nu ser vi många bilder rapporteras flera gånger. Det är helt förståeligt eftersom företag använder hashvärden för att upptäcka känt material, men i takt med att känt material ökar blir det viktigare för NCMEC att kunna identifiera nytt material som har producerats och delats online.

ncmec-story-image-2.jpg

Googles Hash Matching API har hjälpt NCMEC att prioritera CyberTipline-rapporter. Kan du berätta mer om hur det här projektet började?

Framgången med programmet för delning av hashvärden har skapat en helt ny utmaning: en volym som innebar enorma utmaningar. En ideell organisation som NCMEC har inte datorkraften att skala upp till denna volym. Därför var vi så ivriga och tacksamma för Googles hjälp med att bygga verktyget Hash Matching API.

Under 2020 fick vi 21 miljoner CyberTipline-rapporter, men i varje rapport kan det finnas flera bilder och videor. De 21 miljoner rapporterna omfattade nästan 70 miljoner bilder och videor som visade sexuellt övergrepp mot barn. Det är tydligt att det finns dubbletter i den volymen, och även om det är enkelt för NCMEC att upptäcka exakta matchningar skulle vi inte kunna upptäcka visuellt liknande matchningar i stor skala och i realtid för att identifiera och prioritera bilder som aldrig har setts tidigare. Det är avgörande när vi försöker identifiera barn som aktivt utsätts för sexuella övergrepp.

Vilka fördelar har Hash Matching API gett NCMEC?

Vi har ett mycket viktigt jobb, som är att ta denna viktiga information och så snabbt som möjligt vidarebefordra den till brottsbekämpande myndigheter. En av fördelarna med det här verktyget är att det ger oss ett nytt sätt att tillföra ett enormt värde till CyberTipline-rapporterna.

Vi har ett program där vi går igenom varje bild och video som visar sexuella övergrepp mot barn och märker dem. Till exempel ”Det här är material som visar sexuellt övergrepp mot barn”, ”Det här är inte material som visar sexuellt övergrepp mot barn” eller ”Här är det svårt att identifiera barnets eller personens ålder”. Men med 70 miljoner filer bara förra året kommer vi förstås aldrig att kunna märka alla filer. Med detta API kan vi göra en jämförelse. När vi taggar en fil kan API:et identifiera alla visuellt liknande filer som vi sedan taggar i realtid. Det har gjort att vi har kunnat tagga över 26 miljoner bilder.

Det hjälper oss att ge mer värde till rapporter som vi skickar till brottsbekämpande myndigheter så att de kan prioritera vilka rapporter de ska granska först. Det hjälper oss även att identifiera vilka bilder som aldrig har setts tidigare. Bilderna innehåller ofta ett barn någonstans i världen som utsätts för sexuella övergrepp. Om vi tänker oss en höstack med en nål i, så är nålen i det här fallet ett barn som behöver räddas. Med Googles verktyg kan vi fokusera på de bilder som innehåller barn som behöver omedelbar hjälp.

Och hur har det påverkat välbefinnandet hos NCMEC:s mänskliga granskare som behandlar rapporter från CyberTipline och analyserar CSAM-innehåll?

Det här CSAM-detekteringsverktyget har minskat behovet av att vår personal tittar på samma bilder om och om igen. Det finns bilder på barn som utsätts för sexuella övergrepp där barnen nu kan vara vuxna. Dessa bilder finns online för alltid och bidrar till att dessa individer fortsätter att vara offer. Genom att tagga bilderna kan de fokusera på de barn som nyligen utsatts för sexuella övergrepp och samtidigt ta bort de olagliga bilderna.

Det är därför vår personal finns här – de vill hjälpa barnen. Detta var en banbrytande förbättring av personalens förmåga att utöva välbefinnande och inte konfronteras med samma skadliga kända material om och om igen.

ncmec-story-image-3.jpg

Hur hjälper detta arbete teknikföretag som helhet i kampen mot denna typ av material online?

Vi vet att Google tillhandahåller CSAM-detekteringsteknik till företag för att stödja den globala kampen mot CSAM och Hash Matching API har en direkt inverkan på många utanför NCMEC. Alla teknikföretag drar nytta av en mer strömlinjeformad och effektiv process på National Center. CyberTipline-rapporter hanteras snabbare och mer effektivt än om vi inte hade haft det här verktyget.

NCMEC är en central resurs för teknikföretag, brottsbekämpande myndigheter, överlevare och deras familjer. Vi har ett otroligt unikt perspektiv på problem och lösningar. Tack vare CyberTipline är vi mycket medvetna om nyskapat och befintligt material som visar sexuella övergrepp mot barn som cirkulerar online. Alla dessa rapporter görs tillgängliga för brottsbekämpande myndigheter. Vi får aldrig glömma att det i slutändan handlar om riktiga barn som har utsatts för sexuella övergrepp och exploatering.

Vi känner till mer än 20 000 identifierade barn som har utsatts för sexuella övergrepp och vars övergrepp har dokumenterats, antingen i en video eller en bild. De här överlevarna, varav vissa fortfarande är barn och andra nu är vuxna, är väl medvetna om det pågående utnyttjandet de utsätts för. Därför är det så viktigt för oss att göra vad vi kan för att minimera och minska spridningen av dessa bilder.

En sak som kanske inte är tydlig för allmänheten är att det finns en tendens att avfärda känt material som visar sexuella övergrepp mot barn eftersom bilderna kan anses vara ”gamla” eller ”återcirkulerade”. Vi påminner ständigt om att det här är riktiga barn – att de mer än 20 000 individerna försöker läka och återfå kontrollen över sina liv. De känner stor tröst i att veta att företag som Google gör allt de kan för att ta bort bilder som skildrar de värsta ögonblicken i deras liv.

Om du stöter på bilder eller material som visar sexuella övergrepp mot barn online kan du anmäla det till National Center for Missing and Exploited Children (NCMEC), eller till en lämplig myndighet runt om i världen.

Google gör allt vi kan för att bekämpa sexuella övergrepp mot och utnyttjande av barn online och förhindra att våra tjänster används för att sprida material som visar sexuella övergrepp mot barn. Du kan läsa mer om detta på vår webbplats Skydda barn.

Gå till början av sidan