2. august 2026 træder nye regler for mærkning af AI-genereret indhold i kraft.
En arbejdsgruppe nedsat af Europa-Kommissionen med professor ved Medievidenskab Anja Bechmann som formand arbejder på et adfærdskodeks, der skal hjælpe indholdsproducenter med at leve op til lovgivningen.
Forskningen viser tydeligt, at det er for vanskeligt at afkode, om videoer, billeder, tekst eller andet indhold er skabt med kunstig intelligens. Det vil ny lovgivning rette op på. 2. august 2026 træder en række gennemsigtighedsforpligtelser i kraft, som gør det lovpligtigt at mærke AI-genereret indhold. Reguleringen er vedtaget af Danmark og de øvrige EU-lande i AI-forordningen, som stiller krav til ansvarlig brug af kunstig intelligens i Europa.
Europa-Kommissionen har udpeget Anja Bechmann, professor ved Medievidenskab, Aarhus Universitet, som formand for den arbejdsgruppe, som frem mod august skal udvikle et adfærdskodeks, der operationaliserer loven og hjælper indholdsproducenter med at leve op til kravene.
Anja Bechmann er leder af DATALAB – Center for Digital Social Research ved Aarhus Universitet og forsker i AI-human kollektiv adfærd og demokratiske udfordringer, blandt andet misinformation. Hun har tidligere samarbejdet med Europa-Kommissionen som medlem af en ekspertgruppe om desinformation.

Anja Bechmann er udpeget som formand for den arbejdsgruppe, som frem mod august skal udvikle et adfærdskodeks for mærkning af AI-genereret indhold. Foto: Lars Svankjær for Videnskabernes Selskab
-Hensigten er klar; Det skal være nemmere for almindelige mennesker at afkode, hvornår de ser indhold generet af AI. I arbejdsgruppen er vores opgave at komme med forslag til, hvordan det kan gøres, fortæller Anja Bechmann.
At det er svært som almindelig bruger at skelne syntetisk indhold fra menneskeskabt indhold, viser den første årlige rapport om tech-giganternes indflydelse på demokrati, trivsel og sammenhængskraft, som Anja Bechmann har bidraget til sammen med kolleger fra Københavns Universitet og Syddansk Universitet. Rapporten, der er udgivet af Digitaliseringsministeriet i februar 2025, konkluderer blandt andet, at danskerne ikke klarer sig væsentligt bedre end tilfældige gæt, når de skal identificere, hvorvidt billeder er skabt med eller uden generativ AI.
Får effekt for 450 millioner borgere
Målet med adfærdskodekset er, at al forretningsdrevet indhold målrettet Europas 450 millioner borgere bliver deklareret. Derfor vil alle, der i forretningsøjemed producerer indhold rettet mod offentligheden, blive omfattet af gennemsigtighedsforpligtelserne. Det gælder reklamebureauer, medievirksomheder, influencere, spil- og filmindustri, musiktjenester, fotografer, søge-,prompt- og chatbots og mange flere.
-Kort sagt alle virksomheder, der producerer deepfakes i form af billeder, video og lyd eller AI-tekst til offentligheden uden menneskelig redaktion og ansvarlig person bag, fortæller Anja Bechmann.
I løbet af efteråret 2025 er der indhentet interessetilkendegivelser fra big tech, virksomheder, ngo’er, akademikere med flere som ønsker at indgå i arbejdet. 200 interessenter er udvalgt til at indgå i processen med udviklingen af kodekset. Det sikrer, at en bred vifte af interessenter bliver hørt løbende og kan kvalificere brugbarheden af kodekset.
Én af arbejdsgruppens opgaver består nu i at gå i dialog med interessenterne samt at fremlægge versioner af kodekset for EU kommissionens AI board, alle 27 medlemslande samt EU Parlamentet for kommentarer. Kodekset kommer med løsninger på, hvordan mærkning blandt andet skal være tydelig og klar samt forefindes første gang, en borger ser indholdet.
-Det er næsten blevet normen at bruge AI til at skabe indhold enten fuldt ud eller delvist, og derfor er det ikke simpelt at udvikle en model for mærkning, der krydser alle kontekster, alle modaliteter og alle medieplatforme online såvel som offline, samtidig med at mærkningen skal opfylde EU’s adgangskrav. Hvordan skal mærkningen være udformet, så den ikke unødigt skaber utroværdighed, som eksisterende studier har vist? Hvor skal den placeres for at kunne ses, hvis borgeren er i tvivl og vil søge det? Hvor meget information skal mærkningen indeholde, når vi fra forskningen ved, at for meget information gør, at man ikke ser den?, spørger Anja Bechmann.
Adfærdskodekset bliver virksomt og udarbejdes parallelt med EU’s guidelines til lovteksten. Her foretages vigtige definitioner af, hvad der skal markeres. Skal influencere eksempelvis markere, når billeder er forskønnet med AI-beautyfilter? Skal et produktkatalog markere, hvis der er brugt AI-filter til at forskønne produkterne? Det er nogle af de nuancer, som arbejdsgruppen skal afklare. Lovteksten siger, at indholdet skal mærkes, når det bedrager og foregiver at være en virkelighed, det ikke er. Men er der en bagatelgrænse, og hvor går den i givet fald?
Andet udkast af adfærdskodekset kan findes her. På baggrund af interessenternes tilbagemeldinger skriver arbejdsgruppen i foråret 2026 den tredje og endelige version af kodekset. Kodekset forventes publiceret i juni 2026.






