Kommissionen glæder sig over, at Europa-Parlamentet og Rådet er nået til politisk enighed om forordningen om kunstig intelligens (AI-forordningen), som Kommissionen fremlagde forslag om i april 2021.
Ursula von der Leyen, formand for Europa-Kommissionen, udtaler: “Kunstig intelligens er allerede ved at ændre vores hverdag. Og det er kun begyndelsen. Hvis den anvendes fornuftigt og bredt, giver AI enorme fordele for vores økonomi og samfund. Jeg glæder mig derfor meget over, at Europa-Parlamentet og Rådet i dag er nået til politisk enighed om forordningen om kunstig intelligens. EU’s forordning om kunstig intelligens er verdens første omfattende retlige ramme nogensinde for AI. Så dette er et historisk øjeblik. AI-forordningen bringer de europæiske værdier ind i en ny æra. Ved at fokusere reguleringen på identificerbare risici vil dagens aftale fremme ansvarlig innovation i Europa. Ved at garantere menneskers og virksomheders sikkerhed og grundlæggende rettigheder vil den støtte udviklingen, udbredelsen og udbredelsen af pålidelig kunstig intelligens i EU. Vores AI-forordning vil yde et væsentligt bidrag til udviklingen af globale regler og principper for menneskecentreret kunstig intelligens.”
Den europæiske tilgang til pålidelig kunstig intelligens
De nye regler vil blive anvendt direkte på samme måde i alle medlemsstater på grundlag af en fremtidssikret definition af kunstig intelligens. Reglerne følger en risikobaseret tilgang:
Minimal risiko: Langt de fleste AI-systemer falder ind under denne kategori. Applikationer med minimal risiko såsom AI-baserede anbefalingssystemer eller spamfiltre får fripas og er ikke underlagt forpligtelser, da disse systemer kun udgør en minimal eller ingen risiko for borgernes rettigheder eller sikkerhed. Ikke desto mindre kan virksomhederne på frivillig basis forpligte sig til yderligere adfærdskodekser for disse AI-systemer.
Høj risiko: AI-systemer med høj risiko vil skulle opfylde strenge krav, herunder risikoafbødningssystemer, datasæt af høj kvalitet, aktivitetsregistrering, detaljeret dokumentation, klar brugerinformation, menneskelig kontrol og et højt niveau af robusthed, nøjagtighed og cybersikkerhed. Reguleringsmæssige sandkasser vil fremme ansvarlig innovation og udviklingen af AI-systemer, der opfylder kravene.
Eksempler på sådanne AI-systemer med høj risiko omfatter visse kritiske infrastrukturer, f.eks. inden for vand, gas og elektricitet, medicinsk udstyr, systemer til bestemmelse af adgang til uddannelsesinstitutioner eller til rekruttering af personer eller visse systemer, der anvendes inden for retshåndhævelse, grænsekontrol, retspleje og demokratiske processer. Desuden betragtes systemer til biometrisk identifikation, kategorisering og følelsesgenkendelse også som højrisikosystemer.
Uacceptabel risiko: AI-systemer, der anses for at udgøre en klar trussel mod menneskers grundlæggende rettigheder, forbydes. Dette omfatter systemer eller applikationer med kunstig intelligens, der manipulerer menneskers adfærd for at omgå brugernes frie vilje (f.eks. legetøj med indbygget taleassistent, der tilskynder mindreårige til farlig adfærd), og systemer, der gør det muligt for regeringer at indføre sociale pointsystemer (“social scoring”), samt visse former for forudsigende politiarbejde. Desuden vil visse anvendelser af biometriske systemer imidlertid blive forbudt, f.eks. systemer til følelsesgenkendelse på arbejdspladsen, visse systemer til kategorisering af mennesker eller biometrisk identifikation i realtid med henblik på retshåndhævelse på offentlige steder (med snævre undtagelser).
Specifik gennemsigtighedsrisiko: Når der anvendes AI-systemer såsom chatbots, bør brugerne være opmærksomme på, at de interagerer med en maskine. Deep fakes og andet AI-genereret indhold skal mærkes som sådan, og brugerne skal informeres, når der anvendes systemer til biometrisk kategorisering eller følelsesgenkendelse. Desuden skal udbyderne udvikle deres systemer således, at syntetisk indhold såsom lyd, video, tekst og billeder mærkes i et maskinlæsbart format og kan identificeres som værende kunstigt genereret eller manipuleret.
Bøder
Virksomheder, der ikke overholder reglerne, vil blive pålagt bøder. Bøderne vil ligge på 35 mio. EUR eller 7 % af den samlede årlige omsætning (alt efter hvad der er højest) for overtrædelser af forbudte AI-anvendelser, 15 mio. EUR eller 3 % for overtrædelser af andre forpligtelser og 7,5 mio. EUR eller 1,5 % for afgivelse af ukorrekte oplysninger. Der er fastsat mere forholdsmæssige lofter for administrative bøder til SMV’er og nystartede virksomheder i tilfælde af overtrædelser af AI-forordningen.
AI til generelle formål
Med AI-forordningen indføres særlige regler for AI-modeller til generelle formål, som vil sikre gennemsigtighed i hele værdikæden. For meget effektive modeller, der kan udgøre systemiske risici, vil der være yderligere bindende forpligtelser i forbindelse med risikostyring og overvågning af alvorlige hændelser, foretagelse af modelevaluering og kontradiktionsafprøvning. Disse nye forpligtelser vil blive gjort operationelle gennem adfærdskodekser udviklet af industrien, det videnskabelige samfund, civilsamfundet og andre interessenter sammen med Kommissionen.
Med hensyn til forvaltning vil de nationale kompetente markedsovervågningsmyndigheder føre tilsyn med gennemførelsen af de nye regler på nationalt plan, mens oprettelsen af et nyt europæisk AI-kontor inden for rammerne af Europa-Kommissionen vil sikre koordinering på europæisk plan. Det nye AI-kontor vil også føre tilsyn med gennemførelsen og håndhævelsen af de nye regler om AI-modeller til generelle formål. Sammen med de nationale markedsovervågningsmyndigheder vil AI-kontoret være det første organ på verdensplan, der håndhæver bindende regler om kunstig intelligens, og det forventes derfor at blive et internationalt referencepunkt. For modeller til generelle formål vil et videnskabeligt panel bestående af uafhængige eksperter spille en central rolle ved at udsende advarsler om systemiske risici og bidrage til at klassificere og afprøve modellerne.
Næste skridt
Den politiske aftale skal nu formelt godkendes af Europa-Parlamentet og Rådet og vil træde i kraft 20 dage efter offentliggørelsen i Den Europæiske Unions Tidende. AI-forordningen – med undtagelse af visse specifikke bestemmelser – derefter finde anvendelse to år efter dens ikrafttræden: Forbuddene vil allerede finde anvendelse efter 6 måneder, mens reglerne om kunstig intelligens til generelle formål finder anvendelse efter 12 måneder.
I overgangsperioden inden forordningen finder generel anvendelse, vil Kommissionen lancere en AI-pagt. Den vil samle AI-udviklere fra Europa og resten af verden, som på frivillig basis forpligter sig til at gennemføre centrale forpligtelser i retsakten om kunstig intelligens forud for de lovbestemte frister.
For at fremme regler om pålidelig kunstig intelligens på internationalt plan vil Den Europæiske Union fortsat arbejde i fora som G7, OECD, Europarådet, G20 og FN. For nylig støttede vi G7-ledernes aftale inden for rammerne af Hiroshima AI-processen om internationale vejledende principper og en frivillig adfærdskodeks for avancerede AI-systemer.
Baggrund
Kommissionen har i en række år fremmet og styrket samarbejdet om kunstig intelligens i hele EU for at styrke dets konkurrenceevne og sikre tillid baseret på EU’s værdier.
Efter offentliggørelsen af den europæiske strategi for kunstig intelligens i 2018 og efter en omfattende høring af interessenter udarbejdede Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens sine retningslinjer for pålidelig kunstig intelligens i 2019 og en evalueringsliste for pålidelig kunstig intelligens i 2020. Parallelt hermed blev den første koordinerede plan for kunstig intelligens offentliggjort i december 2018 som et fælles tilsagn med medlemsstaterne.
Kommissionens hvidbog om kunstig intelligens, der blev offentliggjort i 2020, indeholder en klar vision for kunstig intelligens i Europa: Et økosystem af ekspertise og tillid, som danner grundlag for det forslag, der er opnået enighed om i dag. I løbet af den offentlige høring om hvidbogen om kunstig intelligens blev der indsamlet bidrag fra hele verden. Hvidbogen blev ledsaget af en “Rapport om de konsekvenser, som kunstig intelligens, tingenes internet og robotteknologi vil have for sikkerhed og erstatningsansvar”, hvori det konkluderes, at den nuværende lovgivning om produktsikkerhed indeholder en række huller, som skal afhjælpes navnlig i maskindirektivet.
Uafhængig, evidensbaseret forskning, der er produceret af Det Fælles Forskningscenter (JRC), har været afgørende for udformningen af EU’s politikker for kunstig intelligens og for at sikre effektiv gennemførelse heraf. Gennem grundig forskning og analyse har JRC støttet udviklingen af forordningen om kunstig intelligens, idet det har bidraget til AI-terminologien, risikoklassificering, tekniske krav og til den igangværende udvikling af harmoniserede standarder.