Socialdemokratiets forslag om et forbud om sociale medier til børn under 15, og Trine Bramsens forslag om helt at forbyde Telegram pga. skadeligt og ulovligt indhold på tjenesten, kommer ikke til at trylle problemet væk.

Vi har netop fået ny EU-lovgivning i form af Digital Services Act (DSA) og Digital Markets Act (DMA), der pålægger tech-platforme et større ansvar for indholdet. Det er fornuftigt først at sikre, at denne lovgivning fungerer efter hensigten. Det arbejder vi aktivt med i Dansk Annoncørforening, og vi opfordrer alle danske virksomheder til at gøre det samme – vi annoncører bidrager immervæk med størstedelen af tech-platformenes økonomi.

Målet med regulering af tech-platformene er bl.a., at børn trygt kan benytte de sociale medier, og i dag er det desværre ikke tilfældet. Det er det især ikke pga. indhold med vold, pornografi, cybermobning og misinformation, som findes i alt for stort omfang på tech-platformene. Og desværre i nogen grad også, fordi de tilsigtet eller utilsigtet rammes af annoncer, de ikke burde rammes af.

Annoncørernes ansvar

Da hovedparten af indtægterne hos Meta, Youtube, Tiktok og Snapchat kommer fra annoncører, har vi et medansvar, som i dag er vanskeligt at håndhæve, da vi kun har meget lille mulighed for at kontrollere, hvor meget og hvor hurtigt platformene rydder op, når skadeligt indhold rammer børn. 

Hvad annoncerne på de digitale platforme angår, er ansvaret dog helt og holdent annoncørernes, og reguleres bl.a. af det stramme regelsæt i markedsføringsloven, der handler om markedsføring til børn.

Det ansvar tager langt de fleste annoncører heldigvis alvorligt. Nogle indgår endda i frivillige chartre mellem forskellige aktører i industrien, der går ud over lovgivningens krav, og forpligter sig til bestemte standarder for beskyttelse af børn. F.eks. ”The EU Pledge” drevet af World Federation of Advertisers mod markedsføring af usunde fødevarer til børn og EU’s “Alliance to Better Protect Minors Online”, som arbejder på at udvikle og implementere strategier for at beskytte mindreårige online.

Den seneste tid har der dog været et par eksempler på annoncører, som i deres samarbejde med influencere hverken har været deres ansvar bevidst eller overholdt den gældende lovgivning på området.

Det ansvar er i sidste ende annoncørernes, og bør – ud over bøder, hvis lovgivningen ikke overholdes – også give god grund til langt grundigere udvælgelse af de influencere, man indgår samarbejdsaftaler med.

I det hele taget er influencer-samarbejder et særligt fokusområde, hvor det er på høje tid, at vi begynder at stille krav om professionalisme hos influencers og måske især hos de bureauer, de arbejder med, så de som minimum sætter sig ind i markedsføringsloven og overholder den.

Platformenes ansvar

Igennem årtier har tech-platformene med stor innovationskraft udviklet kommercielle modeller, der gør deres platforme attraktive for annoncører. Kunne man forestille sig, at tilsvarende innovationskraft nu bliver brugt på at sikre, at selvsamme platforme ikke skader brugerne – og her tænker vi primært på børn.

Både Meta, Google og TikTok bruger i dag AI-teknologi og i begrænset omfang også menneskelige moderatorer til at screene indhold på deres platforme. Men faktum er, at alt for meget skadeligt indhold stadig slipper igennem.

Den solide aldersverificering med forældre-accept er et godt sted at starte.

En mindre kompleks proces for anmeldelse af skadeligt indhold, når børn og forældre bliver nødt til at gøre platformene opmærksom på netop det, og en tidsgaranti fra platformene side om, hvor hurtigt skadeligt indhold rent faktisk fjernes – og bøder hvis dette ikke overholdes – ville ligeledes være oplagt.

Endelig bør en langt større transparens fra tech-platformene side om, hvad de konkret gør for at mindske problemet være et minimum, således at vi bedre kan vurdere problemets omfang: hvor meget skadeligt indhold screener de selv? Hvor meget anmeldes? Og hvor hurtigt fjernes det?

Alt sammen ville være tiltag, der kunne være med til at sikre, at platformene i højere grad end i dag agerer ansvarligt ift. deres brugere.

Så, kære Meta, Google, TikTok, Snap – lad os få indsigt i jeres arbejde med oprydningen af skadeligt og ulovligt indhold. Og giv os en tro på, at jeres platforme kan fungere ansvarligt for os som annoncører.

Pia Niemann er næstformand, og Thomas Kragh er adm. direktør i Dansk Annoncørforening.