Spring til indhold

AI Act: EU’s nye forordning om kunstig intelligens

EU har netop færdigforhandlet den meget omtalte forordning vedrørende kunstig intelligens (AI Act), som er verdens første bindende regulering på området. Nedenfor er en gennemgang af, hvad der er op og ned i AI Act, bl.a. vedr. lovgivningens formål, aktuelle status, tidsplan og nogle af de praktiske implikationer, den vil medføre for virksomheder.

AI Act: EU’s nye forordning om kunstig intelligens

Forordningen vedr. Kunstig Intelligens (AI Act) er et lovgivningsinitiativ fra EU, der sigter mod at regulere anvendelsen af kunstig intelligens (AI) inden for EU. Formålet med lovgivningen er at etablere klare retningslinjer og standarder for udvikling, implementering og anvendelse af AI-systemer.  
 
Formålet med AI Act 
AI Act har til formål at etablere en fælles juridisk ramme for både udviklingen og anvendelsen af AI-teknologier. Lovgivningen er designet til at adressere de udfordringer, der er forbundet med AI, og samtidig sikre plads til innovation og vækst på bæredygtig og ansvarlig vis. Sammenfattende er formålet: 

  • Beskyttelse af grundlæggende rettigheder: AI Act sigter mod at sikre, at AI-systemer ikke krænker grundlæggende rettigheder som privatliv, ikke-diskrimination og ytringsfrihed.
  • Transparens og ansvarlighed: Lovgivningen kræver gennemsigtighed i AI-systemers beslutningsprocesser og etablerer ansvarsforhold mellem udviklere, operatører og brugere af AI. 
  • Markedsadgang og innovation: AI Act søger at lette markedsadgang for sikre og innovative AI-løsninger samtidig med at man sikrer en ensartet regulering på tværs af EU-medlemslandene. 
     

Hvem påvirkes af AI Act 
AI Act fastsætter præcise definitioner for de forskellige aktører, der er involveret i kunstig intelligens: udbydere, implementerer, importører, distributører og produktfabrikanter. Dette indebærer, at alle parter, der er engageret i udviklingen, anvendelsen, importen, distributionen eller produktionen af AI-modeller, vil kunne holdes ansvarlige.

På nationalt niveau er det op til de kompetente myndigheder for markedsovervågning at sikre, at AI-forordningen overholdes. Derudover har private aktører beføjelse til at angive klager til myndighederne, såfremt de identificerer AI-modeller, der ikke overholder reglerne i AI-forordningen. Desuden gælder AI-forordning også for udbydere og brugere af AI-systemer placeret uden for EU, hvis output produceret af systemet er tiltænkt brug inden for EU.  
 
AI Act opererer med en såkaldt risikobaseret tilgang, der kategoriserer AI-modeller afhængigt af risikoniveauet. Dette ud fra logikken om jo mere skade teknologien kan påføre samfundet ved sin anvendelse, desto mere restriktive regler vil blive pålagt systemet eller applikationen.  


Man skelner mellem følgende fire risikokategorier:  

Risikokategorierne

1. Uacceptabel Risiko

AI-systemer, der ikke er tilladt i Europa, såsom manipulation af mentale tilstande og udnyttelse af sårbare situationer, og som udgør en trussel mod grundlæggende menneskerettigheder. 

Det gælder bl.a.: 

  • Biometriske kategoriseringssystemer, der anvender følsomme karakteristika.
  • Indsamling af ansigtsbilleder fra internettet eller overvågningskameraer til oprettelse af ansigtsgenkendelsesdatabaser. 
  • Implementering af følelsesgenkendelsessystemer på arbejdspladser og uddannelsesinstitutioner. 
  • Anvendelse af AI-systemer, der muliggør brugen af 'social scoring’ baseret på social adfærd eller personlige karakteristika.
  • Manipulation af menneskelig adfærd af kunstig intelligens for at omgå individuel fri vilje. 
  • Brug af biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse (dog med visse begrænsede undtagelser) 

2. Høj Risiko

AI-systemer, der vedrører kritisk infrastruktur og menneskerettigheder, vil blive underlagt regulative krav om risikominimering, sikring af høj datakvalitet, logning af aktiviteter, omfattende dokumentation, klar brugerinformation, involvering af menneskeligt tilsyn, CE-mærkning, registrering i EU-database 

3. Lav risiko

AI-systemer, såsom anbefalingssystemer og spamfiltre. Disse systemer vil ikke blive underlagt regulering, da de kun udgør minimal eller ingen risiko for borgeres rettigheder eller sikkerhed. Virksomheder har imidlertid mulighed for frivilligt at påtage sig yderligere forpligtelser.

4. Specifikke transparensrisiko

Brugen af AI-systemer som chatbots skal informere brugerne om, at de interagere med en maskine. Desuden skal der på AI-generet indhold som Deepfakes og lignende tydeligt angives overfor brugere. 

5. Generelle foundation modeller

Foundation-modeller, som er omfattende generative systemer, der kan udføre forskellige opgaver som at skabe video, tekst, billeder, levere sprogmodeller og udføre beregninger skal opfylde specifikke transparenskrav, før de introduceres på markedet. Højrisiko foundation-modeller, trænet med store datamængder og med avanceret kompleksitet, kapacitet og ydeevne, er underlagt yderligere restriktiv regulering.  

Digitaliseringsstyrelsen skal håndhæve at reglerne overholdes 

Digitaliseringsstyrelsen er blevet udpeget til at varetage rollen som national koordinerende tilsynsmyndighed for EU's AI-forordning. 

Som led i regeringens digitaliseringsstrategi etablerer Digitaliseringsstyrelsen og Datatilsynet en regulatorisk sandkasse for AI, hvor virksomheder og myndigheder kan få adgang til relevant ekspertise og vejledning i AI-Act og GDPR , når de udvikler eller anvender AI-løsninger.

Lovens implementeringsfaser 

  • 1. august 2024: AI-Act træder i kraft og bliver formelt en del af EU's lovgivning. 
  • 2. august 2026: Reglerne begynder at blive brugt og skal følges i praksis, inklusive højrisiko AI-systemer. Dog vil der være undtagelser for visse bestemmelser i lovgivningen. 
  • Den 2. februar 2025 (6 måneder efter ikrafttrædelse)

    Forbud mod AI med uacceptabel risiko træder i kraft.

  • Den 2. august 2025 (12 måneder efter ikrafttrædelse)

    Forpligtelser for udbydere af generelle AI-modeller træder i kraft. Udbydere af generelle AI-modeller skal udarbejde og løbende opdatere teknisk dokumentation for deres AI-modeller. De skal give information til systemudbydere, der ønsker at integrere den generelle AI-model i deres systemer. Der skal implementeres en politik for overholdelse af EU-lovgivningen om ophavsret og relaterede rettigheder, og de skal offentliggøre en detaljeret oversigt over det indhold, der er brugt til træning af AI-modellen. Disse regler skal sikre, at udbydere af generelle AI-modeller opererer på en gennemsigtig måde, hvilket fremmer sikkerhed, ansvarlighed og overholdelse af juridiske standarder i hele EU.

  • Den 2. februar 2026 (18 måneder efter ikrafttrædelse)

    Kommissionen implementerer en lov om eftermarkeds overvågning. Disse regler skal sikre, at højrisiko AI-systemer bliver nøje overvåget for at identificere og afhjælpe potentielle problemer eller risici, som kan opstå efter, at de er taget i brug

  • Den 2. august 2026 (24 måneder efter ikrafttrædelse)

    Forpligtelser for højrisiko AI-systemer, inklusive systemer inden for biometrik, kritisk infrastruktur, uddannelse, beskæftigelse, adgang til essentielle offentlige tjenester, retshåndhævelse, immigration og administration af retfærdighed træder i kraft.

  • Inden udgangen af 2030

    Forpligtelser træder i kraft for visse AI-systemer, der er komponenter af de storskala informationssystemer etableret af EU-lovgivningen inden for frihed, sikkerhed og retfærdighed, såsom Schengen Informationssystemet.

Praktiske implikationer for virksomheder 
  • Konformitetskrav: Virksomheder, der udvikler eller anvender AI i EU, vil blive pålagt at overholde de krav, som AI Act opstiller. Dette inkluderer opfyldelse af standarder for gennemsigtighed, ansvarlighed og beskyttelse af grundlæggende rettigheder. 
  • Risikovurdering: Virksomheder skal udføre en grundig risikovurdering af deres AI-systemer for at identificere og håndtere potentielle risici for borgernes rettigheder og sikkerhed. 
  • Dataetik og beskyttelse: AI Act vil kræve, at virksomheder implementerer etisk databehandling og beskyttelse af persondata i overensstemmelse med eksisterende GDPR-regler. 
  • Sanktioner: Overtrædelser af AI Act kan medføre sanktioner, herunder bøder. Det er derfor vigtigt for virksomheder at forstå og overholde lovgivningen for at undgå juridiske konsekvenser. 

 

Denne artikel er udarbejdet med hjælp fra Bech-Bruun.

Relevante artikler & dokumenter

Nyhed

Dansk Erhverv om AI Act: ”Godt med regulering, men ikke i midten af skiven”

EU har fredag aften færdigforhandlet aftalen om den meget omtalte AI Act - verdens første bindende regulering af kunstig intelligens. AI Act kommer til at have enorm indflydelse på virksomheders konkurrenceevne og muligheder inden for AI. Dansk Erhverv byder store dele af lovgivningen velkommen, men der er bekymringer...

Nyhed

Danmark og EU er bagerst i feltet på private AI-investeringer

De sidste ti år har verden set store stigninger i investeringer i kunstig intelligens. USA trækker fra, mens Danmark og EU næsten står stille, når man sammenligner de private investeringer. Det kalder på handling, lyder det fra Dansk Erhverv.

Nyhed

Dansk Erhverv lancerer Danmarks første AI-koalition

Dansk Erhverv søsætter en ny, ambitiøs satsning på AI og lancerer i den forbindelse Danmarks første AI-koalition. Koalitionen samler virksomheder til en fælles og forstærket dansk indsats for at påvirke udviklingen inden for AI både politisk og forretningsmæssigt. Visionen er at gøre ansvarlig AI til en dansk konkurrencefordel. Arbejdet vil fokusere på at fremme danske styrkepositioner og adressere barrierer.

Nyhed

Dansk Erhverv: Danmark skal op i AI-gear

Kunstig intelligens bliver afgørende for fremtidens samfund, økonomi og jobskabelse. Alligevel er Danmark på ingen måder i front. Nu lancerer Dansk Erhverv et ambitiøst AI-udspil, som skal accelerere den danske indsats.

Nyhed

Dansk Erhverv lancerer gode råd til virksomhedernes brug af kunstig intelligens

Kunstig intelligens stormer frem. Brugen kan give mange fordele, men der er også flere faldgruber. Få Dansk Erhvervs bedste råd til, hvordan din virksomhed bedst kan navigere i den nye, digitale virkelighed.

Vil du vide mere? Så kontakt

Digitalisering, Teknologi, Tele & Tværgående Koordination

Frederikke Rosendal Egede Saabye

Fagchef for digitalisering