Kunstig intelligens bliver nu brugt af mange danske marketingchefer. En af de mere populære måder at bruge AI på er at lade kunstig intelligens hjælpe med at fastlægge, hvilke varer en webshop skal anbefale til en kunde ud fra, hvordan andre lignende kunder har handlet.
Men vil det ødelægge modellen, hvis nogle af dine kunder trækker deres tilsagn tilbage og vil have deres data slettet?
Ja, det gør det, hvis du ikke allerede fra starten designer din AI-model, så det er nemt at slette kundedata uden at det spolerer modellen.
Der er forskellige måder at lade data indgå i sine modeller på. Og der findes heldigvis også værktøjer, som sikrer privatlivets fred for de kunder, der ønsker det – uden at det ødelægger den model, du møjsommeligt har optrænet ved hjælp af kunstig intelligens.
Det centrale greb er at vælge en AI-metode, som sikrer, at personhenførbare data ikke optræder i din model. Det kan du gøre ved fx at anonymisere data, inden de bliver smidt ind i modellen.
Risikerer bøder
Mange vil nok også skulle revidere deres eksisterende datasæt på kunder og medarbejdere. Og mange kender formentligt ikke deres datafundament ordentligt.
Men selv hvis ens opsamlede kundedata i dag er i overensstemmelse med GDPR-reglerne, har kunderne jo stadig ikke givet samtykke til, at deres data kan bruges til at optræne kunstig intelligens.
Derfor er det en god ide allerede nu at ændre på det samtykke, man beder kunderne give, så samtykket også omfatter brug af kundernes data til formål som inkluderer AI. Faktisk skal man have et særskilt samtykke for hver eneste processering, man vil foretage med de gemte data.
Derfor vil det være at foretrække, hvis samtykket er delt op i forskellige dele (granuleret), så en kunde fx kan bede om at få navn og sin adresse slettet, men at virksomheden fx kan beholde kundens købshistorik til træning af modellen.
Inden du sætter en AI-løsning i gang med at assistere kunderne, er det også vigtigt at fastslå, om løsningen er såkaldt high, medium eller low risk i forhold til den nye AI-regulering fra EU.
Det er såkaldt high risk, hvis din AI-løsning giver anbefalinger om fx kost og træning, fordi forkerte anbefalinger fra systemet side kan have voldsomme personlige konsekvenser.
Derimod vil individuel kurratering af artikler i dit nyhedsbrev eller automatisk temperaturstyring i din stue formentligt være i kategorien low risk, fordi der er grænser for, hvor dramatiske konsekvenserne kan blive.
Kun 5-10 procent af alle AI-systemer forventes at falde inden for high risk-kategorien. Udover sundhed og fødevarer kan high risk fx være selvkørende biler (som jo kan køre ind i andre), scoring af kreditværdighed (som kan hindre folk i at realisere deres drømme) og HR-systemer (som kan hindre en person i at få et arbejde).
Hvis dit AI-system ikke lever op til reguleringen, forventes lovgivningen af lande på, at myndigheder kan tildele en bøde på en vis procent af din virksomheds omsætning. Opererer din virksomhed inden for high risk, er det selvsagt ekstra vigtigt at undgå fejl. Både fordi de kan forårsage store skader, og fordi det kan afstedkomme nogle meget store bøder.
Ansvaret er dit
Eftersom de fleste danske virksomheder er små og har under ti ansatte, må man forvente, at de fleste virksomheder ikke selv udvikler sine AI-systemer, men kommer til at benytte systemer udviklet af eksterne leverandører.
Ansvaret for at undgå fejl påhviler dog stadig den virksomhed, som bruger systemet. Løsningen kan derfor være, at du som virksomhed stiller krav til dine leverandører om, at de har så meget styr på tingene, at de kan garantere, at løsningen er i orden.
Et muligt fremtidsscenarie er, at leverandører fremover udleverer en AI-databehandleraftale, som viser, hvorvidt en løsning overholder AI-lovgivningen. Lovgivningen forventes at træde i kraft i april 2025. En AI-behandleraftale beskriver hvilke data, leverandøren har adgang til, og hvordan leverandøren anvender disse data.
Da det endnu nok er de færreste systemleverandører, som kan tilbyde en AI-databehandleraftale, kan man alternativt bede leverandøren fremlægge et roadmap for, hvad de har planlagt at gøre i fremtiden.
Generelt er det værd at huske på, at der stilles tre universelle krav til de datasæt, som bruges i AI-løsninger. Kravene er, at data er relevante (dvs. afspejle GDPR), komplette (dvs. dækker et stort nok udsnit) og repræsentative (hvis du vil give anbefalinger til en bestemt gruppe, skal dit datasæt dække denne gruppe).
God fornøjelse med at bruge kunstig intelligens.
Anders Kofod-Petersen er professor i kunstig intelligens ved NTNU i Trondheim. Troels Lindgaard er partner i 1DigitalTrust.