Formål og indhold
Forslaget til direktivet om civilretligt ansvar for kunstig intelligens har som hovedformål at harmonisere reglerne i EU for at skabe øget retssikkerhed for både borgere og virksomheder. Det tager afsæt i de udfordringer, som kunstig intelligens’ kompleksitet, autonomi og uigennemsigtighed skaber for eksisterende nationale regler om civilretligt ansvar. Målet er at sikre ofre for AI-relaterede skader beskyttelse og reducere juridiske barrierer for virksomheder.
Direktivet indeholder bestemmelser om lempelser af bevisbyrden, herunder brug af afkræftelige formodninger (en påstand anses for sand medmindre modparten kan bevise det modsatte). En domstol får desuden mulighed for at pålægge parter at fremlægge relevante beviser i sager om højrisiko-AI-systemer. Det sikrer desuden beskyttelse af handelshemmeligheder og anvender en proportional tilgang for at undgå unødvendige byrder for virksomheder.
Forslaget koordineres med eksisterende EU-regler, herunder AI-forordningen og produktansvarsdirektivet, for at skabe en sammenhængende og effektiv retlig ramme, der både beskytter borgerne og fremmer innovation og konkurrence på det indre marked.
Regeringens generelle holdning
Regeringen støtter formålet med direktivet om at fastlægge harmoniserede regler for civilretligt ansvar for skader forårsaget af kunstig intelligens. Samtidig forholder regeringen sig skeptisk over for forslagets nuværende udformning, da det risikerer at skabe barrierer for udvikling og anvendelse af kunstig intelligens i Danmark og Europa. Regeringen mener, at direktivet bør begrænses til højrisikoanvendelser som defineret i kunstig intelligens-forordningen og finde den rette balance, hvor risici imødegås, samtidig med at teknologien kan udvikles og anvendes.
Regeringen finder det centralt, at der opnås en klar og operationel lovgivningsramme, som sikrer borgernes og forbrugernes tillid uden unødigt at hæmme innovationsevnen eller forringe konkurrenceevnen. Desuden er det vigtigt at sikre det bedst mulige samspil mellem produktansvarsreglerne og nationale erstatningsansvarsmæssige rammer.
Regeringen fremhæver, at direktivet skal respektere kompetencefordelingen mellem EU og medlemsstaterne, herunder inden for national sikkerhed. Samtidig skal effekterne af direktivet stå mål med de administrative og økonomiske konsekvenser, det medfører.
Regeringen mener, at direktivet om ansvar for kunstig intelligens (AILD) kun bør omfatte højrisiko AI-systemer for at fastholde den risikobaserede tilgang fra AI-forordningen og undgå overlap med produktansvarsdirektivet. Regeringen advarer mod en bredere anvendelse af bevisbyrdereglerne og afkræftelig formodning, da dette kan pålægge leverandører af lavrisiko AI-systemer unødige krav, hvilket hæmmer innovation og øger omkostningerne. Samtidig understreger regeringen behovet for, at regler om adgang til handelshemmeligheder er i overensstemmelse med handelshemmelighedsdirektivet. Dansk ret giver allerede mulighed for bevisindsamling uden en forudgående retssag, hvilket kan støtte ofre for skader.
Forhandlingssituationen i Rådet
Forhandlingerne i Rådet har været langsomme, da fokus har været rettet mod AI-forordningen og det reviderede produktansvarsdirektiv. Medlemsstaterne udtrykker generelt støtte til at sikre ofre for AI-relaterede skader samme beskyttelse som i sager om traditionelle teknologier, men forslaget møder modstand på flere punkter.
Nogle medlemsstater peger på risikoen for overlap mellem de forskellige lovgivningsinitiativer, mens andre kritiserer, at direktivet ikke i tilstrækkelig grad følger AI-forordningens risikobaserede tilgang. Der er endnu ikke opnået konsensus om forslaget, men diskussionerne er præget af bekymringer over potentielle byrder for virksomheder og forholdet til eksisterende nationale erstatningsregler.
Diskussionspapir fra formandskabet
Forud for drøftelserne den 11. november 2024 i arbejdsgruppen for civilretlige spørgsmål udarbejdede det ungarske formandskab et diskussionspapir. Dette papir fokuserer på to centrale artikler:
Artikel 3 vedrører ofres adgang til beviser og identificering af ansvarlige parter i AI-relaterede skader. Drøftelserne fokuserer på, om reglerne bør harmoniseres med produktansvarsdirektivet, og hvordan man bedst beskytter handelshemmeligheder.
Artikel 4 omhandler formodningen om årsagssammenhæng ved fejl. Formandskabet foreslår forenklinger, som blandt andet indebærer fjernelse af visse betingelser og større fleksibilitet for medlemsstater for at lette implementeringen.
Regeringens svar på diskussionspapiret
Regeringen fastholder, at direktivet bør begrænses til højrisiko-AI-systemer for at bevare en risikobaseret tilgang og undgå overlap med produktansvarsdirektivet. Regeringen advarer mod en bred anvendelse af bevisbyrderegler og afkræftelige formodninger, som kan føre til unødvendige krav for lavrisiko-systemer og hæmme innovation. Samtidig understreges vigtigheden af at sikre, at reglerne om adgang til handelshemmeligheder harmonerer med handelshemmelighedsdirektivet.
Dansk ret tilbyder allerede effektive mekanismer til bevisindsamling, som kan hjælpe ofre uden behov for yderligere byrdefulde krav.
Kilder
NS – 21/11 2024