Märkning av AI-genererat innehåll enligt EU:s AI Act

Vi låter, lite ironiskt, AI sammanfatta lagen:

  • Krav på märkning av AI-genererat innehåll – är det obligatoriskt?

    Ja, EU:s AI-förordning (AI Act) ställer upp obligatoriska transparenskrav för AI-genererat innehåll. Både de som utvecklar AI-system och de som använder dem för att skapa innehåll har ansvar att se till att det framgår när innehåll är AI-skapat​. Enligt AI Act måste generativ AI märka sitt innehåll på ett sätt som gör det identifierbart som artificiellt. I praktiken innebär det att AI-system som skapar text, bild, video eller ljud ska lägga in en märkning (t.ex. digital vattenstämpel eller metadata) i sin output som signalerar att innehållet är AI-genererat eller AI-manipulerat​. Syftet är att motverka vilseledande information, deepfakes och liknande bedrägerier​.

    Därutöver åläggs även användare (t.ex. företag) som sprider AI-genererat innehåll i vissa fall att tydligt upplysa publiken om att innehållet är artificiellt framställt. AI Act anger uttryckligen att deepfakes och viss AI-genererad text ska vara tydligt och synligt märkt​.

    Detta innebär att om ett företag använder ett AI-verktyg för att skapa exempelvis en bild eller text som presenteras som äkta, måste företaget tydligt informera att det rör sig om AI-genererat material.

    Är en visuell vattenstämpel obligatorisk? – Lagen föreskriver inte en specifik form för märkningen, men den kräver att märkningen är effektiv och tydlig. I praktiken finns flera alternativ: en visuell vattenstämpel (t.ex. en överlagrad text eller symbol på bilden/videon), en textuell disclaimer i anslutning till innehållet (t.ex. ”Detta innehåll är AI-genererat”), eller en inbäddad digital markör i filens metadata som kan upptäckas maskinellt​.

    Det viktiga är att det går att upptäcka att innehållet är AI-skapat. För generativa AI-system betonar lagen maskinläsbarhet – märkningen ska finnas i ett format som kan läsas av maskiner och på så vis automatiskt detekteras​. Samtidigt måste vissa AI-alstrade verk gentemot människor vara klart märkta så att en vanlig betraktare förstår att det inte är autentiskt​.

    Sammanfattningsvis måste företag alltså märka AI-genererat innehåll. Märkningen kan ske genom olika tekniska lösningar – synliga eller osynliga – så länge de uppfyller kravet på att tydligt informera om materialets art. Underlåtenhet att följa dessa regler kan medföra betydande sanktioner (upp till 15 miljoner euro eller 3% av global omsättning)​, vilket understryker att kraven är tvingande, inte frivilliga.

  • Märkningens utformning – vad ska framgå? (Text, symbol, metadata)

    Märkningen ska i klartext ange att innehållet är artificiellt framställt. Enligt lagen ska den som tillhandahåller AI-genererat innehåll ”upplysa om att innehållet har genererats artificiellt eller manipulerats”​. Det innebär att märkningen åtminstone bör innehålla en tydlig deklaration – exempelvis en text som ”AI-genererat innehåll” eller motsvarande – som gör det omöjligt att missta materialet för 100% människoskapat.

    För textinnehåll kan detta vara en rad i början eller slutet av texten som klargör att texten är AI-skapad. För bilder eller videor kan det röra sig om en liten synlig symbol eller text overlay (vattenstämpel) som indikerar AI-ursprunget, eller en beskrivning intill mediat som nämner det.

    Utöver den mänskligt läsbara informationen betonar AI Act även maskinläsbar märkning. Det innebär att metadata eller digitala vattenstämplar ska läggas in så att plattformar och mjukvaruverktyg automatiskt kan identifiera AI-genererat material​. EU planerar standarder för detta genom den nyinrättade AI-byrån, som troligen kommer att kombinera signerad metadata (enligt t.ex. C2PA-standarden för innehållsautenticitet) med robusta digitala vattenstämplar​. Metadata-märkning kan exempelvis bestå av osynlig information inbäddad i en bild- eller textfil som anger att den skapats av AI och eventuellt av vilket system. Sammanfattningsvis bör märkningen innehålla tydlig information om innehållets art. I praktiken kan detta vara:

    Textuell upplysning: En kort text som explict säger att innehållet är AI-genererat eller AI-redigerat (t.ex. ”Genererat av AI”).

    Symbol: En ikon eller logotyp som signalerar AI-innehåll (om en sådan standardiseras i framtiden). Metadata/Vattenstämpel: Tekniska inbäddade markörer som inte nödvändigtvis syns för ögat men gör innehållet spårbart som AI-producerat​.

    Det centrala är att märkningen förmedlar att innehållet inte är mänskligt originellt. Lagen kräver inte att man uppger vilket AI-verktyg som använts eller några detaljerade metadata offentligt; kravet är främst att mottagaren informeras om att det är AI-genererat. Dock kan mer detaljerad information frivilligt anges i metadata för att underlätta spårbarhet och ansvarstagande.

  • När och för vilket innehåll gäller märkningskravet?

    Alla typer av syntetiskt innehåll omfattas i princip av transparenskravet – text, bilder, video, ljud, etc​. EU-lagen specificerar dock vissa kategorier där märkning särskilt krävs: AI-genererade bilder, videor och ljud som efterliknar verkligheten (”deepfakes”): Om ett AI-system skapar eller ändrar bild-/video-/ljudinnehåll så att det liknar en verklig person, plats, händelse eller liknande på ett trovärdigt sätt, måste detta innehåll märkas som konstgjort​. AI-förordningen definierar deepfake som just sådant media som skulle kunna uppfattas som äkta av en person​. Ett exempel är ett AI-genererat foto eller videoklipp av en verklig offentlig person som säger/gör något denne aldrig gjort – detta måste tydligt förses med en upplysning att det är artificiellt. För företag innebär det att om man använder AI för att skapa realistiska bilder eller videor (t.ex. ett fejkat foto i PR-syfte), så är märkning obligatorisk. Undantag ges endast för användning inom brottsbekämpning (t.ex. polisens egna deepfakes i utredningar)​ eller för uppenbart konstnärliga/satiriska verk (se nedan).

    AI-genererad text för allmänheten (nyheter, pressmeddelanden, blogginlägg m.m.): Om AI används för att generera eller redigera text som publiceras i syfte att informera allmänheten om frågor av allmänt intresse, måste det framgå att texten är AI-genererad​.

    Detta avser exempelvis nyhetsartiklar, journalistik, pressmeddelanden, offentlig information eller andra texter som människor kan förvänta sig är skrivna av människor och lita på innehållsmässigt. Om ett företag låter en AI skriva t.ex. en bloggtext eller ett PR-utskick om ett samhällsrelevant ämne (säg en AI-genererad rapport om ekonomiska utsikter), så krävs att man upplyser läsaren om att texten är skapad med AI​.

    Precis som för deepfakes finns undantag för brottsbekämpande användning, och – viktigt – ett undantag om texten har genomgått mänsklig granskning och redaktionell kontroll (mer om detta i punkt 4 nedan)​.

    Enkelt uttryckt: om AI-text publiceras rakt av som fakta eller nyhet måste den märkas, men om en redaktör bearbetat texten och tar ansvar för den som vilken artikel som helst, då faller kravet.

    Övrigt AI-genererat innehåll: Även om lagen pekar ut deepfakes och offentliga texter specifikt, gäller den generella transparensprincipen även annat AI-innehåll. T.ex. om ett företag använder AI för att generera reklammaterial, fiktiva berättelser eller liknande, bör det överväga märkning.

    Även interaktiva AI-system som chatbots har transparenskrav – användare måste informeras när de interagerar med en AI och inte en människa​ – men det handlar mer om interaktion än om innehållsmärkning.

    Gäller kravet även delvis AI-genererat innehåll? – Ja, i de fall där AI har bidragit i sådan omfattning att resultatet kan anses AI-genererat eller AI-manipulerat, så omfattas det. Lagen formulerar det som ”innehåll som genererats eller manipulerats” av AI​, vilket inkluderar hybridfall. Exempel: en äkta foto som delvis ändrats av AI (t.ex. AI har lagt till en person som inte var där från början) räknas som AI-manipulerat och ska märkas. En text som en människa delvis skrivit men där betydande stycken är genererade av AI bör betraktas som AI-genererat i sin helhet i kommunikativt syfte.

    Det finns dock nyanser – se nästa punkt om små AI-inslag. Notera att för konstnärligt, kreativt eller satiriskt innehåll som innehåller AI-genererade inslag finns flexibilitet i hur märkningen utförs. Lagen säger att om t.ex. en deepfake utgör en del av ett uppenbart konstnärligt eller satiriskt verk, så räcker det att man upplyser om förekomsten av AI-innehåll på ett lämpligt sätt som inte förstör upplevelsen​. Det kan innebära att man inte behöver bränna in en stor vattenstämpel mitt på bilden under själva föreställningen, utan istället informerar i eftertexter, beskrivning eller liknande. Poängen är att publiken ska kunna få reda på att AI använts, men utan att det konstnärliga uttrycket saboteras.

  • Märkning vid delvis AI-genererat innehåll – små AI-inslag

    Om endast en liten del av innehållet skapats med AI uppstår frågan om märkning ändå krävs. Enligt AI Act finns vissa undantag för marginal användning av AI:

    Assistiva redigeringsverktyg: Om AI endast används som hjälp för vanlig redigering och inte väsentligt ändrar innehållets mening eller karaktär, så gäller inte märkningskravet​. Till exempel, om ett företag använder en AI för automatisk stavningskontroll, grammatikjustering eller mindre förbättringar av en text som en människa skrivit, anses inte texten som ”AI-genererad” i lagens mening – AI:n har ju inte skapat innehållet, bara finjusterat det.

    Likaså om man använder ett bildredigerings-AI för att höja upplösningen eller justera färger på ett foto; det ändrar inte det faktiska motivet. I sådana fall behöver man inte märka innehållet som AI-genererat, eftersom AI:ns inverkan är underordnad​.

    Mänsklig granskning av AI-innehåll: För textmaterial säger lagen att om AI-genererat innehåll har genomgått en mänsklig gransknings- eller redigeringsprocess och en fysisk eller juridisk person bär det redaktionella ansvaret för publikationen, då behöver man inte explicit märka texten som AI-genererad​.

    Det vill säga, om ett utkast framställts av AI men sedan bearbetats av en redaktör/journalist som tar ansvar för textens riktighet och kvalitet, kan texten publiceras under människans namn utan särskild AI-märkning. Tanken bakom detta är att den mänskliga kontrollen bryggar förtroendegapet – en ansvarig utgivare behandlar texten som sin egen, vilket antas innebära att faktakoll och omdöme har tillämpats.

    Små AI-inslag i övrigt: Om AI-inslaget varken är rent trivialt (som stavningskontroll) eller fullt ut mänskligt granskat, blir det en gråzon. Lagen ger ingen exakt procentgräns för när ”en liten del” AI-innehåll kräver märkning, men principen är att publiken inte får vilseledas. En tumregel är att om AI:s bidrag är innehållsbärande – t.ex. genererar formuleringar, bilder eller fakta som annars inte hade funnits – då bör man tendensmässigt märka. Det är bättre att vara transparent än att riskera att överträda lagen.

    Hur ska man då formulera märkningen vid delvis AI-genererat innehåll? Det enklaste är att ange något i stil med: ”Detta innehåll är delvis AI-genererat” eller ”AI-assisterat”. Märkningen kan placeras där den är naturlig – för en text kan en fotnot eller parentes i inledningen användas (t.ex. ”Denna artikel är delvis skriven med hjälp av AI”). För en bild/video kan en kort notis i bildtexten eller i hörnet duga. Kravet enligt lagen är att man upplyser om att materialet har genererats eller manipulerats av AI​ – det gäller även om AI bara stod för en del av helheten. Formuleringen kan anpassas för att vara korrekt: om majoriteten är mänskligt skapad men AI bidragit, bör det framgå att AI medverkat snarare än att hela innehållet är AI-skurat. Avslutningsvis, om AI-inslaget är mycket litet eller obetydligt för slutresultatet, kan företag göra bedömningen att formell märkning inte behövs utifrån lagens undantag.

    Men för att bygga förtroende kan frivillig transparens ändå vara klokt. EU-kommissionen uppmuntrar aktörer att vara öppna med AI-användning i den mån det är möjligt​.

    Därför kan det vara bra praxis att även vid delvis AI-genererat innehåll ge en kort transparensnotis. Detta försäkrar att man följer både lagens bokstav och anda, samtidigt som publiken hålls informerad.


    Källhänvisningar:

    De beskrivna kraven och undantagen återfinns i EU:s AI-förordning (Regulation (EU) 2024/1689), särskilt artikel 50 om transparens. Punkt 50(2) behandlar märkning av genererat innehåll​ SVENSKTNARINGSLIV.SE

    SVENSKTNARINGSLIV.SE, och punkt 50(4)–(5) rör skyldigheten att upplysa om deepfakes och AI-text för allmänheten​ SVENSKTNARINGSLIV.SE

    SVENSKTNARINGSLIV.SE. Sammanfattningsvis slår lagen fast att AI-genererat innehåll måste märkas på ett eller annat sätt för att garantera transparens gentemot användare och allmänhet. Detta gäller alla företag och aktörer inom EU som utvecklar eller använder AI för innehållsgenerering. Det övergripande målet är att säkerställa att människor ”omedelbart vet att det inte är verkligt”​ SYDSVENSKAN.SE
    när de möter AI-skapade alster, och därigenom upprätthålla förtroende och bekämpa desinformation i det digitala samhället.

    https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai#:~:text=Moreover%2C%20providers%20of%20generative%20AI,on%20matters%20of%20public%20interest

    📄 EU AI Act – fullständig text (EUR-Lex) https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689
  • 📘 Artikel 50 – Transparenskrav för generativ AI och märkning av innehåll
  • https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689#d1e1965-1-1
  • 📘 Artikel 52 – Transparens vid AI-interaktion (t.ex. chatbots)
  • https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689#d1e2055-1-1
  • 📘 Artikel 71–74 – Sanktioner och överträdelser
  • https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689#d1e2574-1-1
  • 🧾 AI Act Summary – EU Council (kort sammanfattning på engelska)
  • https://www.consilium.europa.eu/en/press/press-releases/2024/03/13/artificial-intelligence-act-council-adopts-new-rules-on-ai/
  • 📑 EU-kommissionens officiella infografik om AI Act
  • https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  • Sydsvenskan – Europa är först med AI-reglering, men bidrar redan till mobilisering på annat håll
  • https://www.sydsvenskan.se/2024-03-14/europa-ar-forst-med-ai-reglering-men-bidrar-redan-till-mobilisering-pa-annat-hall/
  • Lexology – European Commission & AI: Guidelines on Prohibited Practices
  • https://www.lexology.com/library/detail.aspx?g=143f1463-84ad-4e54-a62e-7d24e0a32584
  • Lexology – As transparency obligations on AI providers increase in the EU, will compliance keep pace?
  • https://www.lexology.com/library/detail.aspx?g=2a163de9-234c-4db1-baf6-00a9edd9d127
  • Lexology – First Rules Take Effect on Prohibited AI Systems and AI Literacy
  • https://www.lexology.com/library/detail.aspx?g=4dde8b75-a7c6-4196-afd7-3fb0718b1f2a
  • Lexology – 2024 EU AI Act: a detailed analysis
  • https://www.lexology.com/library/detail.aspx?g=a1aa3da8-4ba8-4967-8f28-1981bae8bc2b
  • Lexology – The EU AI Act: Ten key things to know
  • https://www.lexology.com/library/detail.aspx?g=87314728-6ca7-42c1-9477-b749f30a1858
  • Lexology – The first requirements of the EU AI Act come into force
  • https://www.lexology.com/library/detail.aspx?g=71a93936-2dfc-4f0e-b72e-137b38d4afba
  • Lexology – The EU AI Act: An Overview
  • https://www.lexology.com/library/detail.aspx?g=c6f8f22f-1e77-441a-8ef1-f85a097013ee
  • Lexology – Copyright provisions in the AI Act: generative AI, transparency, and copyright compliance
  • https://www.lexology.com/library/detail.aspx?g=df44d89e-86f9-40fe-8e1e-31cee1f6d0aa
  • Lexology – EU AI Act unpacked #22: Key considerations for employers as deployers and providers of AI systems
  • https://www.lexology.com/library/detail.aspx?g=11f71f6b-e110-4e8c-bcc4-183c38ec9746
  • Lagboken.se – Sveriges digitala lagbok
  • https://www.lagboken.se/lagboken/start
  • Wikipedia – Artificial Intelligence Act
  • https://en.wikipedia.org/wiki/Artificial_Intelligence_Act
  • Reuters – Spain to impose massive fines for not labelling AI-generated content
  • https://www.reuters.com/technology/artificial-intelligence/spain-impose-massive-fines-not-labelling-ai-generated-content-2025-03-11/
  • The Guardian – EU accused of leaving ‘devastating’ copyright loophole in AI Act
  • https://www.theguardian.com/technology/2025/feb/19/eu-accused-of-leaving-devastating-copyright-loophole-in-ai-act
  • Financial Times – EU pushes ahead with enforcing AI Act despite Donald Trump warnings
  • https://www.ft.com/content/b4e10389-1a66-4c3e-922e-a4d74b616ec6
  • Financial Times – EU lawmakers warn against ‘dangerous’ moves to water down AI rules
  • https://www.ft.com/content/9051af42-ce3f-4de1-9e68-4e0c1d1de5b5