EU’s lovgivning for kunstig intelligens skal blive den første i verden

Foto: Pixabay

Brugen af kunstig intelligens (AI) i EU vil blive reguleret gennem en forordning, der bliver verdens første omfattende AI-lovgivning. Læs mere her om hvordan den vil beskytte dig.

Som en del af sin digitale strategi ønsker EU at regulere kunstig intelligens til at sikre bedre forhold for udviklingen og brugen af denne innovative teknologi. AI kan give mange fordele som bedre sundhedspleje, mere sikker eller renere transport, mere effektiv manufaktur og billigere og mere bæredygtig energi.

I april 2021 foreslog Kommissionen den første lovgivningsramme for AI. Kommissionen foreslår, at AI-systemer, der kan bruges i forskellige applikationer, analyseres og klassificeres efter den risiko, de udgør for brugerne. De forskellige risikoniveauer vil betyde mere eller mindre regulering. Når de er godkendt, vil de blive verdens første regler for AI.

Læs mere om hvad kunstig intelligens er, og hvordan det bruges

Hvad Parlamentet ønsker at se i AI-lovgivningen 

Parlamentets prioritet er at sikre sig, at AI-systemer, der bruges i EU er sikre, gennemsigtige, sporbare, ikke-diskriminerende og miljøvenlige. Der skal føres tilsyn med AI-systemer af mennesker, frem for af automatisering, for at forebygge skadelige udfald.

Parlamentet ønsker også at oprette en teknologineutral, ensartet definition for AI, der kan anvendes på fremtidige AI-systemer.

Læs mere om Parlamentets arbejde med AI og dets vision for AI’s fremtid.

AI-forordning: Forskellige regler for forskellige sikkerhedsniveauer

De nye regler skaber en forpligtelse hos udbyderne og forbrugerne afhængig af risikoniveauet fra den kunstige intelligens. Da mange AI-systemer udgør minimal risiko, skal de evalueres.

Unacceptable risici

AI-systemer med unacceptable risici er systemer, der betragtes som en trussel mod mennesker og vil blive forbudt. De inkluderer:

  • kognitiv adfærdsmanipulation af personer eller særlige sårbare grupper f.eks. stemmeaktiveret legetøj, der opfordrer til en farlig adfærd hos børn.
  • social klassificiering: Klassificering af personer baseret på adfærd, socioøkonomisk status eller personlig karakteristik.
  • biometrisk identifikation og kategorisering af fysiske personer.
  • realtids- og eksterne biometriske identifikationssystemer som ansigtsgenkendelse.

Nogle undtagelser kan blive tilladt til retshåndhævelsesformål. ” Realtids”-fjernbiometriske identifikationssystemer vil blive tilladt i et begrænset antal alvorlige sager, mens eksempelvis “post” eksterne biometriske identifikationssystemer, hvor der opstår en markant forsinkelse, vil blive tilladt til at retsforfølge alvorlig kriminalitet og kun efter retslig godkendelse.

Højrisiko

AI-systemer, der negativt påvirker sikkerheden eller grundlæggende rettigheder, vil blive betragtet som højrisiko og vil blive inddelt i to kategorier.

1. AI-systemer, der bruges i produkter, der kommer under EU’s produktsikkerhedslovgivning. Dette inkluderer legetøj, luftfart, biler, medicinsk udstyr og lifte.

2. AI-systemer, der kommer ind under særlige områder, der skal registreres i en EU-database:

  • håndtering og betjening af kritisk infrastruktur
  • uddannelse og erhvervsrettet oplæring
  • beskæftigelse, arbejdstagerhåndtering og adgang til selvstændig beskæftigelse
  • adgang til og glæde af vigtige private tjenester, offentlige tjenester og ydelser
  • retshåndhævelse
  • migration, asyl og håndtering af grænsekontrollen
  • assistance i den juridiske fortolkning og anvendelse af loven.

Alle højrisiko AI-systemer vil blive evalueret, før de kommer på markedet og gennem deres livscyklus.

Generel og generativ kunstig intelligens

Genererende AI som ChatGPT skal leve op til gennemsigtighedskrav:

  • oplyse at indholdet var genereret af AI
  • designe modellen til at forebygge, at det genererer ulovligt indhold
  • udgive resuméer om copyrightdata brugt til oplæringen

Generelle AI-modeller med stor indflydelse, der kan udgøre en systemisk risiko, såsom den mere avancerede AI-model GPT-4, skal gennemgå grundige evalueringer og rapportere eventuelle alvorlige hændelser til Kommissionen.

Begrænset risiko 

AI-systemer med begrænset risiko skal leve op til mindre krav om gennemsigtighed, der gør det muligt for forbrugerne at træffe informerede beslutninger. Efter at have interageret med applikationerne kan brugerne bestemme, om de ønsker at fortsætte med at bruge dem. Brugerne skal være klar over det, når de interagerer med AI. Det inkluderer AI-systemer, der genererer og manipulerer med et billede, lyd eller videoindhold (f.eks. deepfakes).