Fra august 2026 skal du oplyse, at din annonce er lavet med AI

Kenneth Dosanjh,
letor i AI marketing på Erhvervsakademi København

Lektor i AI marketing ved Erhvervsakademi København skriver, hvad det betyder i praksis.

De fleste europæiske virksomheder ved godt, at EU’s AI-forordning findes. Færre ved præcis, hvad der sker fra august 2026, og hvad det konkret betyder, når man bruger AI til at skrive annoncetekster, generere billeder eller producere videoindhold til kampagner.

Hvad siger forordningen egentlig?

EU’s AI-forordning (2024/1689) træder gradvist i kraft over tre år. Fra august 2026 gælder de fulde transparenskrav for AI-genereret indhold. Det centrale er artikel 50, stk. 4, som pålægger alle virksomheder, der anvender AI-systemer til at generere syntetisk tekst, billeder, lyd eller video, at oplyse modtagerne om, at indholdet er kunstigt genereret eller manipuleret.

Det gælder ikke kun deepfakes og avancerede videoer. Det gælder bredt: AI-skrevet annoncetekst, AI-genererede produktbilleder, AI-baserede kampagnevideoer og AI-redigerede fotografier, der er manipuleret ud over det redaktionelt acceptable.

Der er to centrale krav:

Det første er synlig disclosure. Modtageren, altså den person der ser eller læser indholdet, skal have en klar oplysning om, at indholdet er AI-genereret. Det er ikke nok med en fodnote på side 7 i handelsbetingelserne.

Det andet er maskinlæsbar mærkning.Indholdet skal desuden mærkes teknisk, typisk via metadata eller watermarking, så det kan registreres automatisk af platforme og tilsynsmyndigheder. Forordningen overlader det til EU-Kommissionen at fastsætte de tekniske standarder, men retningen er klar.

Undtagelsen er snæver. Hvis indholdet er åbenlyst fiktivt, satire eller kunstnerisk, kan kravet fraviges, forudsat at der stadig sker en passende oplysning. En satirisk tegnefilm lavet med AI behøver ikke nødvendigvis et fuldt AI-label. En realistisk produktvideo med AI-genererede skuespillere gør.

Hvem er ansvarlig?

Det er deployer, altså den virksomhed der tager AI-systemet i brug og sender indholdet ud, der er ansvarlig. Det er altså ikke dit AI-software-leverandørs problem. Det er dit. Hvis du bruger Midjourney, ChatGPT, Adobe Firefly eller et tilsvarende system til at producere markedsføringskommunikation, er du deployer, og du bærer forpligtelsen.

Bureau- og platformsansvaret er delt. Hvis du bruger et bureau, der producerer AI-indhold på dine vegne og i dit navn, er det afgørende at have kontraktuel klarhed om, hvem der tager sig af compliance.

Tre realistiske eksempler

Eksempel 1: E-handelsdirektøren. Du bruger et AI-system til at generere produktbeskrivelser og annoncetekster til Meta og Google. Fra august 2026 skal disse tekster ledsages af en synlig markering, fx en lille tekst som “Denne annoncetekst er udarbejdet med AI” eller et standardiseret ikon, når EU-Kommissionen har defineret det. Du skal desuden sikre, at dine annoncefiler indeholder de korrekte metadata. Det praktiske skridt nu er at kortlægge, hvilke AI-systemer du bruger og kontakte dine annonce-platforme om, hvilke tekniske muligheder de stiller til rådighed for mærkning.

Eksempel 2: Marketingchefen i en dansk industrivirksomhed. Du er begyndt at bruge AI-genererede billeder i stedet for fotoshoots, fordi det er billigere og hurtigere. Det er lovligt. Men fra august 2026 skal disse billeder mærkes, både synligt og teknisk, som AI-genererede. Det gælder også billeder, der ikke er 100 procent AI-genererede, men er substantielt manipuleret ud over normal billedredigering. Det praktiske skridt nu er at etablere en intern procedure for, hvornår et billede er “AI-genereret” efter forordningens definition, og hvornår det blot er redigeret. Den grænse er endnu ikke endeligt defineret, men orientér dig i de tekniske standarder fra CEN/CENELEC og ETSI, der er under udarbejdelse.

Eksempel 3: CMO’en i en finansiel servicevirksomhed. I bruger AI-genererede kampagnevideoer med syntetiske fortæller-stemmer og AI-producerede visualiseringer. Her gælder det fulde krav om synlig og maskinlæsbar disclosure. En syntetisk menneskestemme i en video til forbrugere skal tydeligt oplyses som AI-genereret. Det er ikke nok, at det “godt nok kan ses”. Finansielle virksomheder er desuden underlagt skærpede krav fra Finanstilsynet og potentielt MiFID II-transparensreglerne parallelt med AI-forordningen. Det praktiske skridt nu er at løfte dette fra marketingafdelingen til compliance-funktionen.

Hvad skal du gøre inden august 2026?

Der er tre konkrete indsatser, som er realistiske at gennemføre inden fristen.

Kortlæg din AI-brug i marketingproduktionen. Lav en simpel oversigt over, hvilke AI-systemer I bruger, hvad de producerer, og om output bruges i ekstern kommunikation. Det er grundlaget for al compliance.

Etablér interne retningslinjer for AI-mærkning. Beslut, hvem der er ansvarlig, hvad der skal mærkes, og hvordan. Dokumentér det. Tilsynsmyndighederne vil i tilfælde af klager eller tilsyn spørge efter netop denne dokumentation.

Følg de tekniske standarder tæt. EU-Kommissionen og de europæiske standardiseringsorganer er ved at fastlægge de konkrete tekniske krav til metadata og watermarking. Abonnér på opdateringer fra AI-kontoret (ai-office.ec.europa.eu) og digitaliseringsstyrelsen.

August 2026 er tæt på. Virksomheder der allerede nu kortlægger deres AI-brug og bygger compliance ind i produktionsgange, vil ikke opleve fristen som en krise. Virksomheder der venter, risikerer bøder på op til 15 mio. euro eller 3 procent af global omsætning for overtrædelse af transparenskravene, og langt vigtigere: de risikerer at miste forbrugertillid i et marked, der i stigende grad lægger vægt på ægthed. 

Kilde: Regulation (EU) 2024/1689, artikel 50, stk. 4 og artikel 99.

Klummen er et udtryk for skribentens egen holdning