I takt med, at sociale medier som TikTok, Meta og Google dominerer det digitale annoncespil, vokser behovet for ansvarlighed. Disse platforme tilbyder enorme markedsføringsmuligheder og tager hovedparten af annoncekronerne. Men med denne magt følger også et ansvar for at sikre et trygt annonce- og indholdsmiljø.
En meget omtalt, aktuel analyse fra organisationen Digitalt Ansvar peger på et kritisk problem: TikTok (og før dem Meta) undlader ofte at fjerne ulovligt og skadeligt indhold, selv når de direkte modtager beskeder fra organisationer som Børns Vilkår og Red Barnet.
Dette indhold kan spænde fra grov chikane til vildledende og farlige budskaber, som især rammer udsatte børn og unge, men spredes også til alle andre unge. Og indhold, der bliver fulgt af budskaber fra annoncører.
Denne mangel på handling er uansvarlig. Platformene spiller en central rolle i unge menneskers liv, og manglende fjernelse af skadeligt indhold sætter deres trivsel og sikkerhed på spil. Når platforme nægter at tage ansvar, svækker det også tilliden til, at de kan levere et sikkert annoncemiljø for virksomheder.
Ansvarlighed er en nødvendighed
Danmark har et voksende fokus på digital ansvarlighed. Lovgivningen strammes i takt med, at forældre og politikere er stigende bekymrede for børn og unges trivsel.
Organisationer som Digitalt Ansvar, Red Barnet og Børns Vilkår arbejder hårdt for at holde tech-giganterne ansvarlige, men deres indsatser har ikke altid den ønskede effekt. Ifølge analysen ignorerer sociale medier ofte rapporter om ulovligt indhold, selv når det dokumenteres og anmeldes gentagne gange.
Hvis TikTok, Meta og andre platforme ønsker at opbygge deres troværdighed, må de tage deres ansvar mere alvorligt. Et sikkert annonce-miljø starter med, at ulovligt og skadeligt indhold fjernes konsekvent. Det er på tide, at tech-giganterne indser, at ansvarlighed ikke er en mulighed, men en nødvendighed.
Bedre kontrol
Ifølge Tiktok og Meta’s afrapporteringer fjerner de 99 procent af alt skadeligt indhold (og langt det meste med AI). Men det er en nærmest ligegyldig opgørelse, så længe den kun afdækker en delmængde af det skadelige indhold.
En delmængde, de vel at mærke selv definerer. Når de ikke fjerner anmeldelser fra eksperterne på området, er det uansvarligt.
Lovgivningen bliver i de kommende år uden tvivl strammet yderligere, og det er nok også nødvendigt. Australien har f. eks. netop sat aldersgrænsen for sociale medier op til 16 år, og i Danmark arbejdes der også med lignende lovforslag. Men intet tyder på, at platformenes grundlæggende interesser følger lovgivningen, så det vil tage lang tid, før ny lovgivning har den ønskede effekt.
Vi skal – ikke kun for annoncørers skyld – have et bedre fungerende kontrol-system. Vi har derfor, som et første skridt, bedt Digitalt Ansvar om at udvikle en service, som tester for ulovligt og skadeligt indhold – og hvilke virksomheders reklamer der præsenteres sammen med det skadelige indhold.
Ligesom vi sammen med andre landes annoncørforeninger vil forsøge at få et bedre overblik og indsigt end det, platformene tilbyder.
Det er ansvarlighed.
Thomas Kragh er direktør i Dansk Annoncørforening.