Et årelangt arbejde i EU for at regulere kunstig intelligens nåede fredags aften til vejs ende, men det var bestemt ikke en nem vej til den nu færdige forordning for kunstig intelligens, også kendt som "AI Act". I de allersidste trilogforhandlinger var der særligt to forhandlingsemner, som gav anledning til uenigheder imellem de forhandlende parter.

Det første emne vedrørte ansigtsgenkendelse, herunder hvorvidt politimyndigheder skal have lov til at anvende teknologien i realtid i offentlige rum for at bekæmpe kriminalitet.

Uenighed om ansigtsgenkendelse

Parlamentet ønskede et forbud med få undtagelser, mens Ministerrådet gerne ville have generel mulighed for at anvende denne teknologi under nogle nærmere fastsatte betingelser.

Kompromisset blev, at politimyndigheder ikke generelt må anvende ansigtsgenkendelsesteknologier i realtid i offentlige rum, men dog kan anvende sådan ansigtsgenkendelsesteknologi konkret inden for nogle snævre undtagelser og under overholdelse af strenge krav.

Anvendelsen skal være begrænset i tid og sted, og det skal ske med henblik på målrettede eftersøgninger af ofre, forebyggelse af specifikke og aktuelle terrortrusler samt lokalisering eller identifikation af personer, der er mistænkt for at have begået nærmere bestemte grove forbrydelser.

Foundation models gav strid

Det andet emne vedrørte de såkaldte "foundation models", som har været dette års helt store teknologiske landvinding indenfor kunstig intelligens. Foundation models er kunstig intelligens modeller, der er trænet på store mængder af data, er generiske i deres anvendelsesmuligheder og som bruges som fundament til at bygge en lang række AI-systemer, herunder generative AI-modeller (algoritmer, der kan skabe nyt indhold) såsom GPT-4 (brugt i bl.a. ChatGPT).

Parlamentet ønskede med deres udkast til forordningen i juni 2023 at pålægge udbyderne af foundation models en række forpligtelser. Dette udspil har dog medført en række udfordringer og ændringer til den endelige forordning. Flere af EU's økonomiske giganter, Italien, Frankrig og Tyskland, syntes nemlig, at reguleringen gik for langt i dens begrænsninger af innovationen og konkurrenceevnen sammenlignet med andre lande såsom Kina og USA.

De tre lande var i stedet større tilhængere af at regulere udviklerne af foundation models på en mere frivillig måde med retningslinjer for god praksis, fx at udviklingen skulle være gennemsigtig. Men dette var Parlamentet ikke tilfreds med. Det lykkedes Parlamentet at sikre, at foundation models skal overholde de gennemsigtighedskrav, som Parlamentet tidligere havde foreslået. Derudover kom Parlamentet igennem med, at der skal gælde strenge forpligtelser for de såkaldte "high-impact foundations models", der omfatter foundation models, der udgør en systemisk risiko.

"Fundamental rights impact assessment"

Medlemmerne af Parlamentet fik også inkluderet en obligatorisk " fundamental rights impact assessment " for AI-systemer, der klassificeres som højrisiko. Denne risikovurdering skal udarbejdes, inden systemet bliver tilgængeligt i markedet.

I de kommende uger vil de sidste tekniske detaljer falde på plads, hvorefter Formandskabet vil forelægge kompromisteksten til godkendelse hos medlemslandenes repræsentanter. Herefter skal hele teksten godkendes af Rådet og Europa-Parlamentet, før forordningen formelt kan vedtages.

Horten har fulgt tilblivelsen af forordningen tæt og står klar til at rådgive om implementeringen hos både udviklere, distributører og brugere af kunstig intelligens.

Kontakt

Emilie Loiborg

Director, advokat