← Blog

GDPR er ikke dit største AI-problem

Mads Kristiansen

CTO, Liviate

Det er blevet standardreaktionen: "Vi kan ikke gå videre med AI på grund af GDPR."

Det lyder ansvarligt. Det signalerer omtanke. Og det stopper effektivt enhver fremdrift.

Men i langt de fleste danske organisationer er det ikke rigtigt.

GDPR er sjældent det, der reelt blokerer AI-initiativer. Det er bare det mest acceptable sted at placere ansvaret. For bag den forklaring gemmer der sig tre langt mere grundlæggende problemer: manglende dataejerskab, fravær af auditability og, vigtigst, manglende intern tillid.

Hvis du ikke adresserer de tre, kommer du ingen vegne. Uanset hvor compliant du er.

GDPR er en kendt størrelse, og det er præcis pointen

GDPR er ikke nyt. Det er ikke uforudsigeligt. Det er et veldefineret regelsæt med klare principper: formålsbegrænsning, dataminimering, transparens og ret til indsigt og sletning.

Hvis din organisation allerede håndterer persondata i dag, og det gør de fleste, så arbejder I allerede inden for de rammer. AI ændrer ikke fundamentalt på det. Det gør bare svaghederne mere synlige.

Problemet er ikke, at reglerne er uklare. Problemet er, at jeres datafundament ikke er bygget til at leve op til dem i praksis.

Så når GDPR bruges som stopklods, er det ofte proxy for noget andet: "Vi har ikke styr på vores data, og vi ved det godt."

Problem 1: Ingen ved, hvem der ejer data

Spørg rundt i organisationen: Hvem ejer kundedata? Hvem har ansvaret for kvaliteten? Hvem må godkende brug i nye sammenhænge?

Du får sjældent et klart svar.

I mange danske virksomheder er data "noget IT har", men ikke noget nogen reelt ejer. Det fungerer, lige indtil man vil bruge data aktivt, fx til AI.

AI kræver eksplicitte beslutninger: Må disse data bruges til dette formål? Hvad er konsekvensen, hvis output er forkert? Hvem står på mål for det?

Uden klart ejerskab bliver alle beslutninger politiske. Og så er det langt nemmere at sige "GDPR" end at tage ansvar. Projekter går i stå, ikke fordi de er ulovlige, men fordi ingen tør godkende dem.

Problem 2: Manglende auditability

Selv hvis du får lov til at bruge data, opstår næste problem hurtigt: Kan du forklare, hvad der sker?

Hvilke data blev brugt? Hvornår blev de hentet? Hvilken model genererede output? Kan du reproducere resultatet?

I klassisk software er det her allerede en udfordring. I AI-systemer bliver det kritisk. For hvis en medarbejder eller borger spørger: "Hvordan kom I frem til det her resultat?" er "det ved vi ikke helt" ikke et acceptabelt svar.

Mange organisationer opdager først her, at deres setup ikke er bygget til sporbarhed. Data flyder mellem systemer uden klare logs. Transformationer er ikke dokumenteret. Output kan ikke forklares. Og igen: det er nemmere at sige "vi må ikke pga. GDPR" end at indrømme "vi kan ikke dokumentere, hvad vi laver."

Problem 3: Manglende intern tillid

Det største, og mest oversete, problem er tillid. Ikke juridisk tillid. Intern tillid.

Ledelsen stoler ikke på output. Fagområderne stoler ikke på data. IT stoler ikke på forretningens brug. Compliance stoler ikke på nogen af delene.

AI forstærker det, fordi det introducerer en ny type usikkerhed: output er probabilistisk, fejl er sværere at forudsige, og ansvar er uklart. I en dansk kontekst, hvor beslutninger ofte er konsensusdrevne, bliver det hurtigt en stopper. Hvis ingen føler sig trygge, er standardbeslutningen at lade være. GDPR bliver så det fælles sprog, alle kan gemme sig bag.

Hvor GDPR faktisk er relevant

Det betyder ikke, at GDPR er ligegyldigt. Det er det ikke.

Men det er vigtigt at være præcis omkring, hvor det faktisk spiller ind: brug af persondata i træning eller inference, overførsel af data til tredjelande, automatiserede beslutninger med retsvirkning, krav til transparens over for brugere.

Det er konkrete, håndterbare problemstillinger. Organisationer, der lykkes med AI i Danmark, gør hverken det ene eller det andet: de ignorerer ikke GDPR, og de bruger det heller ikke som undskyldning. De operationaliserer det.

Hvad de organisationer gør anderledes

Der er et mønster i de virksomheder og offentlige enheder, der faktisk kommer videre.

De etablerer klart dataejerskab, ikke som teori, men som praksis. Hvert datasæt har en ejer, en ansvarlig for kvalitet og en godkendelsesproces for brug. Det fjerner 80% af friktionen.

De bygger auditability ind fra starten, ikke som et compliance-lag bagefter. De sikrer logging af dataflow, versionering af modeller og prompts og mulighed for at reproducere output. Det gør det muligt at stå på mål for systemet.

De starter med lavrisiko use cases: intern dokumentsøgning, udkast til svar, støtteværktøjer til medarbejdere. Det opbygger tillid gradvist, uden at sætte alt på spil.

De gør usikkerhed eksplicit i stedet for at skjule den. Output markeres som forslag. Der er altid en "human in the loop". Begrænsninger kommunikeres tydeligt. Det reducerer frygten, internt og eksternt.

Den reelle blokering

Den reelle blokering er sjældent juridisk. Den er organisatorisk: uklare ansvar, manglende systematik, lav tillid.

GDPR er bare det mest acceptable sted at parkere problemet.

Men det er også en mulighed. For hvis du begynder at løse de underliggende udfordringer, får styr på dataejerskab, etablerer auditability, bygger intern tillid, så bliver GDPR pludselig noget, du kan arbejde med i stedet for imod.

At sige "vi kan ikke på grund af GDPR" føles sikkert. Men i de fleste tilfælde er det ikke præcist.

Den hårdere og mere værdifulde erkendelse er: Vi er ikke klar endnu. Ikke fordi lovgivningen forhindrer os, men fordi vores fundament ikke er stærkt nok.

Det er faktisk gode nyheder. For i modsætning til GDPR, som du ikke kan ændre, kan du godt ændre din egen organisation.

Det er der, arbejdet starter.

Vil du tale om, hvad der reelt blokerer jeres AI-initiativer?

Mads Kristiansen tager gerne en uforpligtende snak.

Book et møde →