Oversigt over EU's AI-lov
Dette dokument giver en omfattende oversigt over Den Europæiske Unions lov om kunstig intelligens (EU's AI-lov), en lovgivning designet til at regulere AI-systemer inden for EU-markedet. Vi vil udforske dens primære mål, som omfatter at sikre, at AI-systemer er sikre, gennemsigtige, ikke-diskriminerende og miljøvenlige, samtidig med at innovation fremmes.
Denne vejledning vil forklare lovens risikobaserede tilgang, kategorisering af AI-systemer, overholdelseskrav, sanktioner og håndhævelsesfrister, hvilket giver en klar forståelse af forordningen.
Læs hele loven her: EU's AI ACT Explorer.
For at vurdere jeres overholdelseskrav kan du bruge AI ACT Compliance Checker.
Vil du bruge en chatbot til at få overblik? Tal med vores AI ACT Assistent
Opsummering på højt niveau
Verdens første omfattende AI-lov
EU's AI-lov er verdens første større lov for kunstig intelligens. Den skaber regler for at sikre, at AI-systemer, der bruges i EU, er sikre, etiske og respekterer grundlæggende rettigheder som privatliv. Denne lov dækker alle vigtige aspekter af AI, herunder dens sociale indvirkning, og sætter stærke standarder for, hvordan AI skal bruges.
Oprettelse af en risikobaseret tilgang
Denne lov kategoriserer AI-systemer efter, hvor stor en risiko de udgør for mennesker og samfund. Højrisiko-AI-systemer underkastes strenge kontroller, mens lavere risiko-systemer har færre regler. Dette hjælper med at fremme nye idéer, samtidig med at det opbygger tillid til AI. Hovedrisikokategorierne er: Uacceptabel risiko (forbudt), høj risiko, begrænset risiko og minimal risiko.
Strenge og betydelige sanktioner for manglende overholdelse
Manglende overholdelse af reglerne kan føre til store bøder. For alvorlige overtrædelser, såsom brug af forbudt AI, kan virksomheder idømmes bøder på op til 35 millioner euro eller 7% af deres samlede årlige globale omsætning (hvilket der er højest). For mindre alvorlige forhold, som f.eks. manglende opfyldelse af dokumentationsregler for højrisiko-AI, kan bøderne være op til 15 millioner euro eller 3% af deres samlede årlige globale omsætning.
Oprettelse af særskilte interessentgrupper med særskilte ansvarsområder
Udbydere
Dette er de virksomheder, der skaber, fremstiller eller sælger AI-systemer. De skal sikre, at deres AI-systemer overholder EU's AI-retsakts regler for sikkerhed, åbenhed og dokumentation. De skal også sikre, at deres personale forstår AI.
Implementatorer
Dette er de personer eller organisationer, der bruger AI-systemer i EU. De skal være åbne omkring deres brug af AI, håndtere eventuelle risici og informere brugere, når de interagerer med AI. De skal også sikre, at deres personale forstår AI.
Importører
Dette er EU-virksomheder, der importerer AI-systemer til EU fra lande uden for EU. De skal sikre, at disse importerede AI-systemer overholder EU's AI-retsakt. Dette indebærer kontrol af, hvad udbyderen har gjort, opbevaring af de rette dokumenter og sikring af, at AI'en er korrekt mærket og har klare instruktioner.
Distributører
Dette er virksomheder, der gør AI-systemer tilgængelige på EU-markedet, men som ikke selv har fremstillet dem eller importeret dem fra lande uden for EU. De skal kontrollere, at AI-systemerne overholder EU-reglerne, opbevare den nødvendige dokumentation, spore systemerne og rapportere eventuelle problemer eller risici til myndighederne.
EU AI-lovs omfang: Hvem skal følge AI-loven?
EU's AI-lov kræver, at følgende grupper overholder dens regler:
Udbydere: Virksomheder der skaber, sælger eller ibrugtager AI-systemer i EU.
Brugere: Alle der anvender AI-systemer i EU, især dem der anvender højrisiko AI-systemer.
Importører: Virksomheder der bringer AI-systemer ind på EU-markedet udefra.
Distributører: Virksomheder der sælger eller udbyder AI-systemer inden for EU.
Tredjepartsevaluatorer: Grupper der kontrollerer, om AI-systemer lever op til de krævede standarder.
Ikke-EU-udbydere: Udbydere uden for EU, hvis deres AI-systemer anvendes i EU eller påvirker folk der.
Disse grupper skal følge reglerne baseret på hvor risikable de AI-systemer, de håndterer, er.
Citat om implementering af EU's AI-lov fra Ashley Casova, administrerende direktør for IAPP
Overholdelseskrav i EU's AI-lov
EU's AI-lov fastsætter specifikke overholdelseskrav for AI-systemer baseret på deres risikoklassifikation. Nedenfor finder du en opsummering af de vigtigste overholdelseskrav for hver risikokategori.
Risikokategorier i EU's AI-lov
Fra den 2. februar 2025 skal virksomheder, der leverer eller bruger AI-systemer, sikre, at deres medarbejdere forstår AI tilstrækkeligt godt til deres specifikke roller. Denne forståelse bør passe til deres job, erfaring og hvordan de bruger AI'en. Det Europæiske AI-kontor har endda delt en guide, "Living Repository of AI Literacy Practices", med eksempler fra over et dusin organisationer for at hjælpe virksomheder med denne træning.
1
2
3
4
1
Uacceptabel risiko
Forbudte AI-systemer
2
Høj risiko
Strenge overholdelseskrav
3
Begrænset risiko
Gennemsigtighedsforpligtelser
4
Minimal risiko
Frivillige adfærdskodekser
Risikokategorier i detaljer
1
Uacceptabel risiko
Fra den 2. februar 2025 er AI-systemer i denne kategori forbudt i EU. Dette inkluderer AI brugt til social scoring, visse biometriske identifikationsformer eller manipulering af menneskers adfærd ved at udnytte deres svagheder som alder eller handicap.
2
Høj risiko
  • Risikostyring: Etabler et system til at finde, kontrollere og reducere risici gennem hele AI-systemets levetid.
  • Data og datastyring: Sørg for, at data, der bruges til træning, kontrol og test, er af god kvalitet, brugbare, retfærdige og fri for fordomme.
  • Teknisk dokumentation: Før detaljerede optegnelser om AI-systemet, dets design, hvordan det blev bygget, og hvordan det fungerer.
  • Gennemsigtighed og information: Giv brugere klare detaljer om, hvad AI-systemet kan, hvad det ikke kan, og hvordan det bruges korrekt.
  • Menneskelig tilsyn: Indfør metoder, så mennesker effektivt kan overvåge AI for at forhindre eller reducere risici.
  • Nøjagtighed, robusthed og cybersikkerhed: Sørg for, at AI-systemet er meget nøjagtigt, robust og sikkert mod cybertrusler.
  • Overensstemmelsesvurdering: Kontroller, om AI-systemet opfylder standarder, før det sælges. Nogle systemer kræver kontrol af eksterne eksperter.
  • Registrering: Registrer højrisiko AI-systemer i EU's særlige database, før de tages i brug.
3
Begrænset risiko
Gennemsigtighed: Brugere skal vide, når de interagerer med et AI-system (f.eks. skal chatbots oplyse, at de er AI).
4
Minimal risiko
Disse AI-systemer har ingen obligatoriske regler. Virksomheder opfordres til at følge frivillige retningslinjer for bedste praksis.
"Høj risiko"-kategorien under EU's AI-lov har de fleste regler for virksomheder, der udvikler, bruger, importerer eller sælger AI i EU. Disse regler er designet til at sikre, at AI-systemer i EU er sikre, klare og respekterer grundlæggende menneskerettigheder.
Specifikke højrisiko AI-anvendelsesområder
EU's AI-lov definerer en række specifikke områder, hvor AI-systemer betragtes som højrisiko på grund af deres potentielle indvirkning på grundlæggende rettigheder og sikkerhed. Disse områder kræver streng overholdelse af lovens krav.
Produktsikkerhed
AI som en sikkerhedskomponent i regulerede produkter som medicinsk udstyr, maskiner, biler, fly, tog og legetøj.
Biometriske systemer
Fjernbiometrisk identifikation, biometrisk kategorisering, og følelsesgenkendelse i skoler eller på arbejdspladser.
Kritisk infrastruktur
AI, der anvendes inden for elektricitet, gas, varme, vand og trafikstyringssystemer.
Uddannelse og test
Systemer til adgang til uddannelse, profilering, prøver, karaktergivning og overvågning af studerende.
Ansættelse og arbejdsstyring
AI i rekruttering, forfremmelse, afskedigelse, opgavefordeling og performanceovervågning.
Adgang til essentielle tjenester
Kreditvurdering, forsikring, bolig, energi, telekommunikation, sundhed, sociale ydelser og svindeldetektionssystemer.
Retshåndhævelse
Risikovurdering, kriminalitetsanalyse, prædiktiv politivirksomhed og vurdering af bevismateriale.
Migration, asyl og grænsekontrol
Risiko- og troværdighedsvurdering, visum- og opholdstilladelser samt sikkerhedskontrol.
Retspleje og demokratiske processer
AI, der assisterer domstole eller påvirker demokratiske beslutningsprocesser.
Disse applikationer kræver omfattende risikostyring og overholdelse af AI-lovens strenge krav for at minimere potentielle skader.
EU's AI-lov: Straffe og bøder
EU's AI-lov fastsætter alvorlige straffe, hvis virksomheder ikke overholder dens regler.
Disse sanktioner er strenge for at forhindre overtrædelser og sikre, at alle er ansvarlige. Her er de vigtigste sanktioner:
€35M
Forbudt AI-brug
Hvis du markedsfører, anvender eller gør AI-systemer tilgængelige, når de betragtes som en uacceptabel risiko: Bøder kan være op til 35 millioner euro eller 7 % af virksomhedens samlede årlige globale omsætning (hvilket der er højest).
€15M
Overtrædelse af regler for høj/begrænset risiko
Hvis du ikke følger reglerne for AI-systemer med høj eller begrænset risiko (f.eks. problemer med datakvalitet, dokumenter, gennemsigtighed, menneskeligt tilsyn eller AI'ens robusthed): Bøder kan være op til 15 millioner euro eller 3 % af virksomhedens samlede årlige globale omsætning (hvilket der er højest).
€7.5M
Forkert information
Hvis du giver falske, ufuldstændige eller vildledende oplysninger til officielle myndigheder: Bøder kan være op til 7,5 millioner euro eller 1 % af virksomhedens samlede årlige globale omsætning (hvilket der er højest).
Disse sanktioner har til formål at sikre, at alle virksomheder, der er involveret i AI i EU, følger AI-lovens strenge regler, hvilket bidrager til at skabe sikker og pålidelig AI.
Tidslinje for Håndhævelse: Hvornår træder AI-loven i kraft?
AI-loven vil blive håndhævet trinvist, med start den 1. august 2024.
De fleste af AI-lovens regler vil gælde fra den 2. august 2026, men nogle dele træder i kraft allerede i februar 2025.
1
2. februar 2025
Efter seks måneder: Virksomheder skal sikre, at deres medarbejdere forstår AI, og AI-systemer med "uacceptabel risiko" vil blive forbudt.
2
2. august 2025
Efter 12 måneder: Regler for AI-systemer til generelle formål, som ChatGPT, vil begynde at gælde.
3
2. august 2026
Efter 24 måneder: Alle AI-lovens regler vil gælde, herunder dem for højrisikosystemer angivet i bilag III.
4
2. august 2027
Efter 36 måneder: Regler vil gælde for højrisiko AI-systemer, der ikke er i bilag III, men som anvendes som sikkerhedskomponenter i produkter.
Højrisikosystemer i bilag III
Denne frist er vigtig, da den omfatter en bred vifte af højrisikosystemer, herunder, men ikke begrænset til:
HR-teknologi
Systemer som dem, der bruges til at finde, screene, rangere og interviewe jobkandidater.
Finansielle tjenester
Systemer, der bruges til kreditvurdering, bekæmpelse af hvidvaskning af penge (AML) og svindeldetektion.
Forsikring
Systemer som dem, der bruges til at beregne præmier, vurdere risici og bestemme dækning.
Uddannelse og erhvervsuddannelse
Systemer, der bestemmer adgang til uddannelsesmuligheder, personaliserede læringsplaner og præstationsvurderinger.
Mange flere er beskrevet i bilag III i lovgivningen.
Disse eksempler illustrerer blot nogle få af de mange højrisiko-AI-systemer, der er omfattet af loven. Bredden af disse reguleringer understreger det afgørende behov for strenge overholdelsesforanstaltninger for at sikre etisk og sikker brug på tværs af forskellige sektorer.
EU AI-lovklarhed
1) Tjek om din AI er dækket
Er du i tvivl, om EU's AI-lov gælder for din AI? Du kan starte med at bruge compliance checkeren i starten af dette dokument.
2) Opret din AI-liste
  • Saml et team til at lave en liste over alle dine AI-værktøjer og -modeller.
  • Beskriv, hvad hvert system gør, og dets kapaciteter.
  • Navngiv teamet eller personen, der er ansvarlig for hver model.
3) Find højrisikomodeller
  • Find risikoniveauet for hvert AI-system baseret på EU's AI-lovs regler: uacceptabel, høj, begrænset eller minimal risiko.
  • Husk, at generelle AI-systemer (som ChatGPT) har regler, der træder i kraft allerede 12 måneder efter lovens ikrafttræden.
  • Prioriter risici efter, hvor alvorlige de er, for at håndtere presserende problemer først.
4) Opsæt AI-styring
  • Før detaljerede optegnelser over hvert AI-systems rejse: dets formål, hvad det kan gøre, og hvordan det træffer beslutninger.
  • Kontroller regelmæssigt dine AI-systemer for retfærdighed, hvor godt de forklarer sig selv, og hvor pålidelige de er.
  • Sørg for, at mennesker altid overvåger AI'en.