Problemerne med hate speech og misinformationer er store og ægte. Modtrækket er kunstigt i form af Artificial Intelligence. Og løsningen virker. Af Ram Ramanathan, Director, AI Product Management Team, Facebook
Mere end 60% af klodens befolkning er nu online. Og i takt med at internettet omfavner flere netværk og enheder drager folk overalt i stigende grad fordel af bedre forbindelser og adgang til information.
Men nogle af de problemer, der har optaget menneskeheden op gennem historien – herunder hadsk tale og misinformation – er også fulgt med over på nettet. Og dét i en grad, at også danskere har taget begrebet ”hate speech” til sig.
Til alt held udvikler kunstig intelligens (AI) sig til at fokusere på disse udfordringer. I min egenskab af Director for Facebooks AI Product Management Team sidder jeg i første parket til de seneste landvindinger, som hjælper med at fastholde online-platformenes integritet, forhindre skadelig og misvisende content i at nå frem til folk samt at sikre brand safety for annoncører.
At lokalisere problematisk indhold i stor skala er en enorm vanskelig opgave, men AI har givet os redskaberne til at gøre det hurtigt og mere effektivt.
Find og fjern hadsk tale
Vi kan nu træne komplekse AI netværk til at scanne nye opslag i løbet af brøkdele af et sekund og vurdere, om indholdet overtræder vores regler.
Angreb og had-symboler er ofte åbenlyse, mens mange tilfælde af hate speech er mere komplekse. Hate speech er ofte pakket ind i sarkasme og slang eller tilsyneladende harmløse billeder, der kan opfattet forskelligt fra kultur til kultur. Og når det subtile og kontekstuelle stiger, så øges de tekniske udfordringer. Det er derfor, det er så vigtigt, at AI over de senere år har fået et kæmpe løft i evnen til dybere at forstå dette indhold.
AI opdagede proaktivt 96,8% af de 25,2 mio. stykker hate speech, som vi fjernede i løbet af 1. kvartal 2021. Det viser den seneste udgave af vores Community Standards Enforcement Report. I denne periode blev udbredelsen af hate speech begrænset til 6 for hver 10.000 content views på Facebook. Dette system er i særdeleshed vigtigt for annoncører, som gerne vil vide sandsynligheden for, at en annonce bliver vist i forbindelse med indhold, der overtræder vores standarder.
AI hjælper os med skalere vurderingen af indhold ved at automatisere visse beslutninger og overlade de mest komplekse sager til personlig bedømmelse. Dermed slipper disse personer for selv for at blive udsat for noget af det mest skadelige indhold.
Sådan identificeres og håndteres misinformation
Når vores modeller peger på, at et stykke indhold sandsynligvis rummer misinformation, så popper det op hos tredjeparts fact checkers, der vurderer det. Hvis vurderingen er, at information er usand, så får indholdet advarsel-mærkater og bliver sat i en sammenhæng. Det har vist sig at være særdeles effektivt: Vores interne undersøgelser viser, at når folk ser mærkater, der advarer om, at indholdet er vurderet til at være usandt, så dropper de i 95% af tilfældene at se indholdet.
For hvert eneste tilfælde af misinformation, vi finder, kan der være tusinder af kopier, som er delt af brugerne. AI kan nu spore disse næsten-identiske dubletter og sætte mærkat på hver enkel og dermed understøtte indsatsen mod misinformation.
Efterhånden som nye udfordringer dukker op sætter vi løbende AI i stand til at hjælpe med at håndhæve vores regler. Det så vi bl.a. i forbindelse med udbruddet af pandemien, hvor vi fjernede på globalt plan flere end 16 mio. stykker usande Covid-19- og vaccine-relateret indhold på Facebook og Instagram, som sundhedseksperter havde påvist.
Morgendagens største udfordringer
Hadefulde memes og såkaldte deepfakes – hvor en video eller et billede er kunstigt ændret til komplet at efterligne en anden person — er to af de største udfordringer, som vi lige nu træner AI-modeller til at bekæmpe i vores videre færd frem.
Memes kombinerer ord og billeder på en måde, der ofte er nuanceret eller ironisk. Selve billedet og den ledsagende tekst er ikke nødvendigvis stødelige vurderet hver for sig, men i visse tilfælde kan resultatet være skadelige, når de kombineres. Vores systemer forbedres konstant i måden at anskue og evaluere billeder og tekst i forening. Det øger forståelsen for sammenhænge, og det fjerner hadske memes.
Det brede AI-community er proaktivt med hensyn til vidensdeling og til at skabe bedre internet oplevelser. Vores aktuelle Hateful Memes og Deepfake Challenges er sat i søen for at understøtte nye og åbne sporingsmodeller, som kan komme alle til gavn. Ved at omfavne open & reproducible science holder AI-forskere hinanden til ilden og øger adgangen til nye teknologier.
AI forbedrer online oplevelser – hele tiden
Målet for mit team er skabe tilgængelige løsninger, som gør det praktisk muligt at håndtere skadeligt indhold på en afbalanceret måde. Vores holdning er, at folk skal kunne tale frit på vores platforme, men uden at skade andre. Og virksomheder skal kunne være en del af samtalen uden at blive forbundet med skadeligt eller unøjagtigt indhold.
Det endelig mål er at kunne levere en kommunikationsplatform, der er så sikker som overhovedet muligt. AI er ikke kun midlet mod problematisk indhold, men også et værktøj, der gør os i stand til at tilpasse og udvide indsatsen hurtigere og mere effektivt, end hvis det alene skulle klares af menneskelig arbejdskraft.
Vi er helt med på, at der stadig er arbejde, der skal gøres, og vi bestræber os på at nå i mål.
Hvis du vil vide mere om vores open-source værktøjer og undersøgelser, så læs mere her.