Europaudvalget 2022-23 (2. samling)
KOM (2022) 0496 Bilag 1
Offentligt
2637988_0001.png
GRUND- OG NÆRHEDSNOTAT TIL
FOLKETINGETS EUROPAU DVALG
1. november 2022
Europa-Kommissionens forslag til Europa-Parlamentet og Rådets
direktiv om tilpasning af reglerne om civilretligt ansvar uden for
kontraktforhold til kunstig intelligens (KOM (2022) 496)
1. Resumé
Europa-Kommissionen fremsatte d. 28. september 2022 et forslag til et
direktiv om tilpasning af reglerne om civilretligt ansvar uden for
kontraktforhold til kunstig intelligens (KOM (2022) 496). Direktivet har til
formål at sikre, at ofre for skader forårsaget af kunstig intelligens-
baserede produkter -og tjenester opnår samme beskyttelsesniveau som ofre
for skader forårsaget af almindelige produkter. Samtidig skal
harmoniserede foranstaltninger på EU-niveau forhindre fragmentering af
det indre marked samt øge retssikkerheden for de virksomheder, der
udvikler eller anvender kunstig intelligens. Dette skal bidrage til
udbredelsen af pålidelig kunstig intelligens på det indre marked.
Direktivet fastlægger fælles regler for fremlæggelse af dokumentation for
højrisiko kunstig intelligens-systemer. Dette skal gøre det muligt for
sagsøgere at løfte bevisbyrden i erstatningssager. Direktivet fastsætter
derudover fælles regler for bevisbyrden ved civilretlige erstatningskrav
baseret på culpa
dvs. hvor skadevolder har forvoldt skaden ved en
forsætlig eller uagtsom handling eller undladelse - for så vidt angår skader
forårsaget af kunstig intelligens-systemer. Der etableres en afkræftelig
formodning om manglende overholdelse, i tilfælde, hvor en sagsøgt ikke
imødekommer en national domstols anmodning om fremlæggelse af
dokumentation. Ligeledes etableres en afkræftelig formodning om
forbindelse mellem sagsøgtes fejl og det output eller manglende output fra
et kunstig intelligens-system, som fører til den pågældende skade.
Formodningen finder anvendelse under visse betingelser.
Kommissionen skal efter fem år revurdere forslaget, herunder navnlig
behovet for også at harmonisere regler om objektivt ansvar samt
obligatorisk forsikring. Til dette formål skal medlemslandene
indrapportere data til Kommissionen årligt.
Overordnet støtter regeringen ambitionen om at fastlægge regler om
erstatningsansvar for skader forårsaget af kunstig intelligens-systemer,
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0002.png
herunder forslagets tilgang til håndtering af sådanne krav. Regeringen
finder det vigtigt, at forslaget bidrager til en ansvarlig og etisk anvendelse
af kunstig intelligens-løsninger og dataene bag disse. Regeringen finder
det samtidig vigtigt, at sikre bedst muligt samspil med de generelle
produktansvarsregler til gavn for myndigheder, virksomheder og
forbrugere.
2. Baggrund
Europa-Kommissionen (Kommissionen) har den 28. september 2022
fremsat et forslag til et direktiv om tilpasning af reglerne om civilretligt
ansvar uden for kontraktforhold (KOM (2022) 496) og en dertilhørende
konsekvensanalyse. Forslaget blev oversendt til Rådet i dansk
sprogversion den 30. september 2022. Forslaget har retsgrundlag i artikel
114 TFEU, som indeholder bestemmelser om vedtagelse af
foranstaltninger med henblik på at sikre det indre markeds oprettelse og
funktion. Forslaget behandles efter den almindelige beslutningsprocedure
og vedtages med kvalificeret flertal i Rådet.
Forslaget udgør en del af en række af foranstaltninger på kunstig
intelligens-området, der yderligere består af den allerede fremsatte
forordning om kunstig intelligens samt den pågående revision af
sektorspecifikke og horisontale produktsikkerhedsregler. Desuden er
forslaget til dette direktiv fremsat sammen med et forslag til et nyt
produktansvarsdirektiv, der erstatter det gældende direktiv nr.
85/7347EØF, i en pakke, der søger at tilpasse ansvarsreglerne til den
digitale tidsalder, herunder til kunstig intelligens. Initiativerne er tæt
forbundne og supplerer hinanden for at udgøre en overordnet effektiv
ordning for civilretligt ansvar.
Det bemærkes, at kunstig intelligens-forordningen i sig selv også
fastlægger regler, der skal mindske sikkerhedsrisici og beskytte
grundlæggende rettigheder. Sådanne regler eliminerer imidlertid ikke
sådanne risici fuldt ud, hvorfor der stadig kan opstå skader. Dette forslag
vil finde anvendelse i disse tilfælde. Desuden vurderer Kommissionen, at
effektive ansvarsregler giver økonomisk incitament til at overholde
sikkerhedsreglerne som fastlagt i kunstig intelligens-forordningen.
Ydermere skal forslaget bidrage til effektiv håndhævelse af kravene
fremsat i kunstig intelligens-forordningen, idet manglende overholdelse af
disse krav er en væsentlig udløser for lempelse af bevisbyrden. Forslaget
er endvidere i overensstemmelse med de foreslåede generelle og
sektorspecifikke produktsikkerhedsregler for kunstig intelligens-baserede
maskinprodukter og radioudstyr.
Forslaget supplerer ydermere en række af Kommissionens forebyggende
lovgivningsmæssige og tilsynsmæssige krav, der skal forhindre krænkelser
af grundlæggende rettigheder, navnlig, forordningen om databeskyttelse,
2
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0003.png
forordningen om digitale tjenester samt EU-lovgivning om ikke-
forskelsbehandling og ligebehandling. Dog skaber forslaget ikke nye
erstatningskrav eller påvirker ansvarsfritagelserne i henhold til
ovenstående retsakter.
Af forslagets begrundelse fremgår det, at eksisterende nationale regler om
erstatningsansvar, der ofte er baseret på culpa, ikke egner sig til behandling
af erstatningskrav for skader forårsaget af kunstig intelligens- produkter og
tjenester, idet det kan være svært for skadelidte at løfte bevisbyrden.
Erstatningsansvar uden for kontraktforhold omfatter erstatningskrav der
ikke kan føres tilbage til en aftale mellem skadevolder og skadelidte.
Forslaget fremsættes således blandt andet for at tage højde for de særlige
karakteristika ved kunstig intelligens, herunder kompleksitet, autonomi og
uigennemsigtighed (’sorte boks’-effekten),
der kan gøre det vanskeligt
eller uoverkommeligt dyrt for skadelidte at identificere den ansvarlige
person eller løfte bevisbyrden for et erstatningskrav.
Med forslaget følger en konsekvensanalyse, der er udarbejdet på baggrund
af en offentlige høring og målrettede høringer i form af webinarer og
bilaterale drøftelser med virksomheder og organisationer. Høringen
bekræftede,
at ’sorte boks’-effekten
medvirker til, at skadelidte har sværere
ved at bevise skyld og årsagssammenhæng, ligesom der kan være
usikkerhed om, hvordan nationale domstole vil fortolke og anvende de
eksisterende regler i sager om kunstig intelligens. Samtidig fremgik en
bekymring i forhold til konsekvenserne af enkelte medlemsstaters
lovgivningsmæssige foranstaltninger til tilpasning af ansvarsregler,
herunder hvordan den følgende fragmentering vil påvirke virksomhedernes
omkostninger og hæmme udbredelsen af kunstig intelligens i EU.
3. Formål og indhold
Forslaget har til overordnet formål at styrke funktionen af det indre marked
gennem fastlæggelsen af harmoniserede krav til visse aspekter af
civilretligt ansvar uden for kontraktforhold for skader, der er forårsaget af
kunstig intelligens-baserede produkter og tjenester. Kommissionen
vurderer, at manglende harmonisering af regler for erstatning for sådanne
skader vil resultere i at såvel udbydere og brugere af kunstig intelligens-
systemer som skadelidte risikerer at stå overfor 27 forskellige
ansvarsordninger. De afledte konsekvenser af dette vil være forskellige
beskyttelsesniveauer samt forvredet konkurrence blandt virksomheder fra
forskellige medlemslande.
Forslaget skal sikre, at skadelidte (fysiske personer, virksomheder og andre
offentlige eller private enheder) har adgang til samme beskyttelsesniveau
som ofre for skader forvoldt uden inddragelse af kunstig intelligens for
derved at sikre tillid til og fremme udbredelsen af kunstig intelligens.
Således skal forslaget bidrage til beskyttelsen af retten til effektive
3
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
retsmidler og til en upartisk domstol (artikel 47, EU’s charter om
grundlæggende rettigheder) og giver incitament til, at forebygger skader.
Direktivforslaget indeholder derfor fælles regler om fremlæggelse af
beviser og afkræftelig formodning om manglende overholdelse, og har til
formål at sikre, at personer der søger erstatning for skader forårsaget af
kunstig intelligens systemer, har de rette midler til at identificere potentielt
ansvarlige personer og relevante beviser til at understøtte deres krav.
Således får nationale domstole ret til at kræve, at der fremlægges relevante
beviser for højrisiko kunstig intelligenssystemer, der er mistænkt for at
have forvoldt en skade. En sådan anmodning kan udelukkende rettes til
sagsøgte med forpligtelser under kapitel 2 i kunstig intelligens-
forordningen. Disse forpligtelser henviser til de krav, som højrisiko-AI-
systemer skal opfylde, navnlig krav til træning af modeller og data,
gennemsigtighedskrav, krav om menneskeligt tilsyn, krav til nøjagtighed,
robusthed og cybersikkerhed.
Samtidig fastlægger direktivet regler om en såkaldt afkræftelig formodning
om årsagsforbindelse i tilfælde af fejl. Fejl kan f.eks. fastslås ved sagsøgtes
manglende overholdelse af en pligt til at udvise rettidig omhu efter EU-
retten eller national ret, dvs. manglende overholdelse af en krævet standard
for adfærd, der skal forhindre skade på anerkendte retlige interesser såsom
liv, integritet, ejendom og grundlæggende rettigheder. Årsagsforbindelsen
etableres mellem sagsøgtes fejl og det output, det skadeforvoldende
kunstig intelligens-system genererer, eller dets manglende output.
Formodningen om årsagsforbindelse gælder for alle kunstig intelligens
systemer, men kun for højrisiko kunstig intelligens systemer når sagsøger
kan påvise, at udbyderen eller brugeren ikke har opfyldt visse udvalgte
krav i kunstig intelligens-forordningen.
Dertil indeholder forslaget en målrettet revisionsmekanisme, der skal
revurdere behovet for at harmonisere det objektive ansvar for kunstig
intelligens-brugssager med en særlig risikoprofil, potentielt kombineret
med en obligatorisk forsikring.
Desuden indbygges et overvågningsprogram i forslaget, der skal give
Kommissionen oplysninger om hændelser relateret til kunstig intelligens-
systemer, og som skal bidrage til at fastslå om yderligere foranstaltninger,
herunder harmoniserede regler om objektivt ansvar, er nødvendige.
Forslaget er bygget op omkring otte artikler:
Artikel 1: Genstand og anvendelsesområde
Forslaget finder anvendelse på civilretlige erstatningskrav uden for
kontraktforhold - dvs. når et erstatningskrav ikke kan føres tilbage til en
aftale mellem skadevolder og skadelidte - der forårsages af et kunstig
intelligens-system. Således fastsættes fælles regler for følgende:
4
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
Fremlæggelsen af dokumentation for højrisiko kunstig intelligens-
systemer for at muliggøre for sagsøgere at underbygge et
civilretligt erstatningskrav uden for kontraktforhold.
Bevisbyrden af tilfælde af civilretlige erstatningskrav uden for
kontraktforhold, der er baseret på culpa og indbringes for nationale
domstole for kunstig intelligens-forvoldte skader.
Den valgte løsningsmodel skal sikre, at skadelidte (fysiske personer,
virksomheder og andre offentlige eller private enheder) har adgang til
samme beskyttelsesniveau som ofre for skader forvoldt uden inddragelse
af kunstig intelligens for derved at sikre tillid til og fremme udbredelsen af
kunstig intelligens. Således skal forslaget bidrage til beskyttelsen af
adgangen til effektive retsmidler og til en upartisk domstol (artikel 47,
EU’s charter om grundlæggende rettigheder) og give incitament til at
forebygger skader.
Mens forslagets første fase søger at nå forslagets mål med en minimalt
invasiv tilgang, omfatter anden fase en fornyet vurdering af behovet for
strengere og/eller mere omfattende foranstaltninger. Desuden indbygges et
overvågningsprogram i forslaget, der skal give Kommissionen oplysninger
om hændelser relateret til kunstig intelligens-systemer, og som skal
bidrage til at fastslå, om yderligere foranstaltninger, herunder
harmoniserede regler om objektivt ansvar, er nødvendige.
Det fremgår blandt andet af forslaget, at direktivet ikke berører EU-retlige
regler om betingelserne for erstatningsansvar på transportområdet, ej heller
de fastsatte regler i retsakten om digitale tjenester.
Artikel 2: Definitioner
Definitionerne indeholdt i forslaget følger definitionerne i kunstig
intelligens-forordningsforslaget for således at sikre konsistens mellem de
to. Dette gælder definitionerne af ”AI-system”, ”højrisiko-AI-system”,
”udbyder” og ”bruger”.
Desuden følger det af definitionen af ”sagsøger”, at erstatningssøgsmål
ikke blot kan anlægges af skadelidte, men også af personer der er indtrådt
i skadelidtes rettigheder, fx et forsikringsselskab eller arvinger efter en
afdød skadelidt (artikel 2(b)). Med henblik på at sikre skadelidte flere
muligheder for at få deres krav vurderet af en domstol, kan
erstatningssøgsmål efter forslaget desuden anlægges som et
gruppesøgsmål af en person, der handler på vegne af en eller flere
skadelidte i overensstemmelse med EU-retten
eller national ret. ”Pligt til
rettidig omhu” defineres ligeledes.
5
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
Artikel 3: Fremlæggelse og sikring af beviser og afkræftelig formodning
om manglende overholdelse af rettidig omhu
Artikel 3 fastsætter en række midler, der er tiltænkt at gøre personer, der
søger erstatning på baggrund af skader forårsaget at højrisiko kunstig
intelligens-systemer, i stand til at identificere
dels
potentielt ansvarlige
personer,
dels
relevante beviser for et krav samt at udelukke uretmæssigt
identificerede potentielt sagsøgte for at spare tid og omkostninger for
parterne og reducere sagsbyrden for domstolene.
Forslaget skal sikre, at der under en retssag er mulighed for at pålægge en
sagsøgt at fremlægge relevant dokumentation om højrisiko kunstig
intelligens-systemer, der er mistænkt for at have forvoldt skade (såkaldt
edition). Pålæg om at fremlægge bevis målrettes enten udbyderen af det
pågældende system, en person der er underlagt dennes forpligtelser eller
en bruger i henhold til kunstig intelligens-forordningen. Pålæg om at
fremlægge bevis kan ikke meddeles parter, der ikke er underlagt
forpligtelser i kunstig intelligens-forordningen. Muligheden for at anmode
en national domstol om at pålægge sagsøgte at fremlægge beviser
forudsætter, at sagsøger forinden har gjort passende bestræbelser (alle
forholdsmæssige forsøg) på at indsamle disse.
Endvidere får nationale domstole mulighed for at træffe afgørelse om
sikring af bevismidler.
Der lægges i forslaget op til, at pålæg om at fremlægge eller sikre beviser
kun udstedes, i det omfang det er nødvendigt og forholdsmæssigt for at
understøtte et potentielt erstatningskrav. Den nationale domstol skal ifølge
forslaget desuden i relevante tilfælde træffe specifikke foranstaltninger
med henblik på at beskytte parternes legitime interesser, herunder
forretningshemmeligheder og fortrolige oplysninger.
Den person, der pålægges at fremlægge eller sikre beviser skal have adgang
til passende proceduremæssige retsmidler som svar på sådanne pålæg.
Endelig foreslås det at indføre en formodning om manglende overholdelse
af pligten til at udvise rettidig omhu, såfremt en sagsøgt ikke efterkommer
et pålæg om at fremlægge eller sikre beviser. Sagsøgte skal have adgang
til at afkræfte denne formodning.
Artikel 4: Afkræftelig formodning om årsagsforbindelse i tilfælde af fejl
Artikel 4 fastlægger, at nationale domstole skal antage, at der er
årsagsforbindelse mellem en sagsøgts fejl, der kan bestå i manglende
overholdelse af en pligt til at udvise rettidig omhu i henhold til EU-retten
eller national ret, og det output eller manglende output, som det
pågældende system genererer eller ikke genererer. Dette gør sig gældende,
såfremt følgende tre betingelser er opfyldt:
6
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
Sagsøger har godtgjort, eller domstolen har lagt til grund, at
sagsøgte eller en person, hvis adfærd sagsøgte er ansvarlig for, ikke
har overholdt en pligt til at udvise rettidig omhu, der har til direkte
formål at beskytte mod den pågældende skade.
Det kan på baggrund af sagens omstændigheder anses for rimelig
sandsynligt, at sagsøgtes fejl har påvirket enten det output, som
kunstig intelligens-systemet genererer, eller dets manglende
output.
Sagsøger har godtgjort, at enten det output, kunstig intelligens-
systemet genererer, eller dets manglende output har givet anledning
til skaden.
Denne formodning om årsagssammenhæng finder anvendelse, når en
national domstol finder det uforholdsmæssigt vanskeligt for sagsøger selv
at bevise årsagssammenhængen. Det foreslås derudover, at
i tilfælde af et
erstatningskrav mod en sagsøgt, der har anvendt kunstig intelligens-systemet
i forbindelse med en personlig, ikke-erhvervsmæssig aktivitet, finder
formodningen kun anvendelse, hvis sagsøgte væsentligt har grebet ind i
betingelserne for kunstig intelligens-systemets drift, eller hvis sagsøgte var
forpligtet til og i stand til at fastlægge betingelserne for kunstig intelligens-
systemets drift og undlod at gøre dette.
Såfremt erstatningskravet omhandler en udbyder af et højrisiko kunstig
intelligens-system eller en person, der er underlagt dennes forpligtelser i
henhold til kunstig intelligens-forordningen, gør antagelsen om
årsagsforbindelse sig udelukkende gældende, hvis sagsøger har påvist
manglende opfyldelse af visse krav i kunstig intelligens-forordningen. Det
drejer sig navnlig om krav til træning af modeller og data,
gennemsigtighedskrav, krav om menneskeligt tilsyn, krav til nøjagtighed,
robusthed og cybersikkerhed samt krav om at foretage korrigerende
foranstaltninger eller tilbagekalde et system. Desuden skal sagsøgtes
overholdelse af relevante forpligtelser ses i lyset af risikostyringssystemet
og dets resultater.
Det foreslås, at direktivet skal indeholde en undtagelse fra formodningen
om årsagssammenhængen, hvis der er tale om et højrisiko kunstig
intelligens-system og sagsøgte påviser, at der foreligger tilstrækkelig
dokumentation og ekspertise til rådighed for sagsøger til at bevise
årssammenhængen.
Det foreslås, at sagsøgte skal have adgang til at afkræfte formodningen om
årsagssammenhæng.
Artikel 5: Evaluering og målrettet revision
Kommissionen forpligtes til senest fem år efter udløbet af
gennemførelsesperioden for dette direktiv at tage dets anvendelse op til
7
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
revision og forelægge en rapport for Europa-Parlamentet, Rådet og Det
Europæiske Økonomiske og Sociale Udvalg. Rapporten kan ledsages af et
lovforslag hvis relevant. Rapporten skal navnlig tage højde for om artikel
3 og 4 har haft den ønskede effekt. Desuden bør det evalueres, hvorvidt
regler om objektivt ansvar er hensigtsmæssige samt hvorvidt der er behov
for obligatorisk forsikringsdækning.
Udarbejdelsen af ovenstående rapport understøttes af et
overvågningsprogram
udarbejdet
af
Kommissionen.
Overvågningsprogrammet skal præcisere hvordan og hvor ofte data og
anden dokumentation skal indsamles, og ligeledes hvilke foranstaltninger
medlemslandene og Kommissionen selv skal træffe for at muliggøre
dataindsamling-og analyse. I den henseende skal medlemslandene senest
ved udgangen af det andet år efter gennemførelsesperiodens udløb meddele
Kommissionen relevant data og dokumentation, og derefter ved udgangen
af hvert efterfølgende år.
Artikel 6: Ændring af direktiv (EU) 2020/1828
Artikel 6 indeholder bestemmelser om at indsætte en reference til
direktivet om kunstig intelligens-ansvar som punkt 67 i bilaget til Europa-
Parlamentet og Rådets direktiv (EU) 2020/1828 af 25. november 2020 om
adgang til anlæggelse om gruppesøgsmål til beskyttelse af forbrugernes
kollektive interesser om ophævelse af direktiv 2009/22/EF. Dermed gør
forslaget det muligt at rejse kollektive søgsmål angående AI-ansvar.
Artikel 7: Gennemførelse
Det fremgår, at medlemslandene, når de vedtager de nødvendige love og
administrative bestemmelser for at leve op til kravene i dette direktiv,
forpligtes til straks at meddele Kommissionen teksten til disse love og
bestemmelser. Lovene og bestemmelserne skal indeholde en reference til
dette direktiv eller alternativt ledsages af en sådan reference ved
offentliggørelse. Dette skal finde sted senest to år efter direktivets
ikrafttrædelse.
Artikel 8: Ikrafttræden
Direktivet træder i kraft tyve dage efter dets offentliggørelse i
Den
Europæiske Unions Tidende.
8
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0009.png
4. Europa-Parlamentets udtalelser
Europa-Parlamentet har endnu ikke forholdt sig til det konkrete forslag.
Dog vedtog Europa-Parlamentet d. 20. oktober 2020 en
lovgivningsmæssig initiativbeslutning (2020/2014(INL), hvori man
anmodede Kommissionen om at vedtage et forslag til en ansvarsordning
for kunstig intelligens i henhold til artikel 114 TFEUF.
Samtidig udtrykte Europa-Parlamentet i dets beslutning om kunstig
intelligens i en digital tidsalder af 3. maj 2022 bekymringer over såvel
vanskeligheden ved at bevise skyld og årsagssammenhæng for ofre for
skader forårsaget af kunstig intelligens, som over konsekvenserne af
modstridende
fortolkninger
af
eksisterende
ansvarsregler
i
medlemslandene samt udviklingen af forskellige nationale lovgivninger på
området.
5. Nærhedsprincippet
Kommissionen vurderer, at forslagets mål ikke i tilstrækkelig grad kan
opfyldes på nationalt plan. Uden foranstaltninger på EU-plan er der risiko
for, at enkelte medlemslande udvikler egne regler, som potentielt kan være
divergerende eller modstridende.
Nationale strategier for kunstig intelligens viser, at samtlige medlemslande
enten overvejer eller konkret planlægger lovgivning om civilretligt ansvar
for kunstig intelligens. En sådan tilpasning af nationale ansvarsreglerne vil
føre til yderligere fragmentering og øgede omkostninger for virksomheder
på tværs af EU.
Ovenstående vil særligt påvirke de virksomheder, der opererer på tværs af
EU-lande, idet disse vil pålægges yderligere juridiske oplysninger,
risikostyringsomkostninger samt opleve mistede indtægter. Derudover vil
virksomhederne i kraft af forskellige nationale regler om erstatningskrav
for skader forårsaget af kunstig intelligens opleve øgede
transaktionsomkostninger. Det bemærkes desuden, at retsusikkerhed og
fragmentering i uforholdsmæssig høj grad vil påvirke nystartede
virksomheder og SMV’er.
På baggrund af ovenstående er det Kommissionens vurdering, at
harmoniserede tiltag på EU-plan vil afhjælpe fragmentering og øge
retssikkerhed i forhold til eksponering for erstatningsansvar og derved
forbedre betingelserne for udrulning og udvikling af kunstig intelligens-
teknologier i EU markant. Desuden fremgår det af forslaget, at
udelukkende en indsats på EU-niveau kan tilvejebringe det ønskede
resultat om at fremme forbrugernes tillid til kunstig intelligens-produkter
og tjenester, idet en sådan indsats vil sikre et konsekvent mindste
9
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0010.png
beskyttelsesniveau for alle ofre, enkeltpersoner såvel som virksomheder,
samt konkrete incitamenter til at forebygge skader og sikre ansvarlighed.
Regeringen er enig i Kommissionens vurdering af, at nærhedsprincippet er
overholdt, idet formålet bedst opnås ved regulering på EU-niveau.
6. Gældende dansk ret
Dansk rets almindelige erstatningsregler
Der findes ikke i dansk ret særlige regler for erstatningsansvar for skader
forvoldt af kunstig intelligens, og spørgsmålet om erstatningsansvar
afgøres derfor efter reglerne om produktansvar, og alternativt de
almindelige erstatningsretlige regler.
Produktansvarsloven og det ulovbestemte produktansvar finder
anvendelse, når skaden forvoldes af et defekt produkt. Det er uafklaret,
hvorvidt kunstig intelligens i sig selv kan anses for at være et produkt efter
produktansvarsreglerne. Hvis kunstig intelligens indgår som en del af et
produkt, f.eks. en robot, kan skader, som forvoldes, dog være omfattet af
reglerne.
Hvis skaden ikke er forvoldt af et defekt produkt, vil
erstatningsspørgsmålet i stedet skulle afgøres efter de almindelige
erstatningsretlige regler.
Efter dansk rets almindelige erstatningsregler er det en betingelse for at få
tilkendt erstatning, at der foreligger et ansvarsgrundlag. Det er således
hovedreglen, at en person kun kan ifalde erstatningsansvar, hvis den
pågældende har handlet culpøst, dvs. personen har forvoldt skaden ved en
forsætlig eller uagtsom handling eller undladelse.
Dansk erstatningsret bygger endvidere på det princip, at der som
hovedregel kun kan kræves erstatning, når skadelidte har lidt et tab, dvs. er
blevet påført en økonomisk skade. Herudover er der på visse helt særlige
områder fastsat regler om godtgørelse for ikke-økonomisk skade, f.eks.
godtgørelse for svie og smerte, godtgørelse for varigt mén og godtgørelse
for tort.
Det er endvidere en betingelse for at ifalde erstatningsansvar, at der
foreligger den nødvendige forbindelse mellem den indtrådte skade og det
ansvarspådragende forhold. Erstatningsansvar forudsætter således, at der
er årsagssammenhæng mellem den skadevoldende adfærd og den
pågældende skade.
10
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0011.png
Herudover forudsætter et erstatningsansvar, at der foreligger såkaldt
adækvans (påregnelighed). Herved forstås, at den ansvarspådragende
adfærd skal kunne have forøget risikoen for, at den pågældende skade
indtræder. Skader, der er helt atypiske eller tilfældige i forhold til den
risiko, som skadevolders adfærd har fremkaldt, falder dermed uden for
erstatningspligten.
Erstatning opgøres på baggrund af det tab, som skadelidte bevisligt har lidt.
I overensstemmelse med dansk rets almindelige regler om bevisbyrde ved
skader forvoldt uden for kontrakter, bærer skadelidte som udgangspunkt
bevisbyrden for, dels at der er lidt et tab, dels størrelsen heraf.
7. Konsekvenser
Lovgivningsmæssige konsekvenser
Forslaget indebærer lovgivningsmæssige konsekvenser. Det vurderes på
det foreliggende grundlag, at der bl.a. vil være behov for at indføre særlige
regler om parters og tredjepersoners fremlæggelse af oplysninger (edition)
i sager omfattet af direktivet samt om bevisbyrden i sådanne sager, som
udgangspunkt i særlovgivningen.
Økonomiske konsekvenser
Statsfinansielle konsekvenser
Forslaget forventes at kunne medføre statsfinansielle konsekvenser, som
fortsat er under afklaring. Det forventes, at de foreslåede regler vil kunne
føre til, at der rejses flere sager ved domstolene, samt at behandlingen af
sagerne kan blive mere tidskrævende, herunder hvis der er behov
sagkyndig bevisførelse.
Derudover forventes forslaget at medføre administrative omkostninger for
offentlige myndigheder i forbindelse med udarbejdelsen af
Kommissionens overvågningsprogram, hvor medlemslandene forpligtes til
at indsende relevante data og dokumentation til brug for Kommissionens
rapport. Det bemærkes, at afledte nationale udgifter som følge af EU-
retsakter afholdes inden for de berørte ministeriers eksisterende
bevillingsramme, jf. budgetvejledningens bestemmelser herom.
Samfundsøkonomiske konsekvenser
Forslaget forventes at kunne tilvejebringe positive samfundsøkonomiske
konsekvenser. Ved at sikre, at ofre for skader forvoldt af kunstig
intelligens-systemer får adgang til effektiv erstatning på niveau med ofre
for skader forvoldt af almindelige produkter, vil de fremsatte regler
fremme tilliden til kunstig intelligens og andre digitale teknologier i
samfundet. En styrket tillid blandt borgerne forventes ligeledes at gavne
11
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
alle virksomheder i kunstig intelligens-værdikæden, idet dette vil sætte
tempo på udbredelsen af kunstig intelligens-baserede produkter og
tjenester og sikre et velfungerende indre marked for kunstig intelligens.
Erhvervsøkonomiske konsekvenser
Forslaget forventes at medføre erhvervsøkonomiske konsekvenser.
Konsekvensanalysen, der ledsager forslaget, skønner at målrettet
harmonisering på det civilretlige område for kunstig intelligens vil øge
produktionsværdien af grænseoverskridende handel med 5-7 procent.
Samtidig skønnes det på grundlag af den samlede værdi af EU’s marked
for kunstig intelligens, der berøres af ansvarsrelaterede problemer, at de
fremsatte regler vil generere en yderligere markedsværdi på mellem ca.
500 mio. og 1,1 mia. euro.
Ved erstatningskrav omhandlende ikke-højrisikosystemer forventes
sagsøgte virksomheder at opleve administrative omkostninger og øgede
omkostninger forbundet med at bevise de nødvendige kendsgerninger i en
sag om erstatningskrav, idet ansvaret for dette i henhold til direktivet ligger
hos den, der har forvoldt skaden fremfor hos offeret. Dette vil navnlig
komme i form af omkostninger forbundet med opbevaring af og
fremlæggelse af dokumentation til de nationale domstole. Derudover må
der forventes at være omkostninger til sagsanlæg og muligvis en
kommende form for frivillig AI-ansvarsforsikring. De egentlige
omkostninger er fortsat under afdækning.
Såfremt et erstatningskrav omhandler en skade forvoldt af et højrisiko
kunstig intelligens-system, må man antage, at de potentielle omkostninger
forbundet med at fremskaffe dokumentation og dermed løfte bevisbyrden
under henholdsvist artikel 3 og 4 i en vis udtrækning allerede er medregnet
i omkostningerne forbundet med kunstig intelligens-forordningen. Det
skyldes, at disse aktører i kunstig intelligens-forordningen pålægges at
udarbejde og opbevare teknisk dokumentation, samt have et
risikostyringssystem og opbevare logfiler om AI-systemets ageren.
Derudover, må det formodes, at der kan være omkostninger forbundet med
at afkræfte formodningen om årsagssammenhæng i artikel 4.1, herunder
sagsomkostninger.
Andre konsekvenser og beskyttelsesniveauet
Forslaget forventes at kunne forbedre beskyttelsesniveauet for borgere og
virksomheder, idet de foreslåede regler vil sikre et konsekvent mindste
beskyttelsesniveau samt konkrete incitamenter for udbydere til at
forebygge skader og sikre ansvarlighed. Derudover skal forslaget bidrage
til opretholdelsen af en række grundlæggende rettigheder som fastlagt i
EU’s charter om grundlæggende rettigheder, herunder særligt retten til
effektive retsmidler og en upartisk domstol (artikel 47).
12
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0013.png
8. Høring
Forslaget har været sendt i høring i EU-specialudvalget for
konkurrenceevne, vækst og forbrugerspørgsmål samt i specialudvalget for
politimæssigt og retligt samarbejde med frist for bemærkninger d. 14.
oktober 2022. Der er indkommet høringssvar fra Dansk Metal,
Forbrugerrådet Tænk, Forsikring & Pension, Dansk Erhverv og Dansk
Industri.
Generelle bemærkninger
Akademikerne
hilser de to ansvarsdirektiver om hhv. AI-ansvar og ansvar
for defekte produkter velkomne. I takt med udbredelsen af anvendelse af
AI-software og systemer, vil en bedre beskyttelse af brugere kunne bidrage
til yderligt at fremme anvendelsen af AI, hvor der både opnås tryghed ved
anvendelse af AI-systemer og software, som er produceret i og uden for
EU.
Akademikerne bemærker, at formålet med direktivforslaget er at fremme
tilliden til AI ved at tage hånd om de risici, der knytter sig til brugen af AI.
EU-Kommissionen fastslår, at de eksisterende ansvarsregler ikke i
tilstrækkeligt omfang håndterer skader forårsaget af AI-produkter og
tjenester. Desuden er det ofte dyrt og vanskeligt at bevise for de personer,
som har lidt skade. Endelig er den eksisterende nationale regulering
fragmenteret, hvilket fører til øgede omkostninger for AI-producenter og
brugervirksomheder.
Akademikerne støtter målet om at indføre fælles EU-regulering, der skal
gøre det lettere for personer at få erstatning for skader forårsaget af AI
produkter og tjenester.
Dansk Erhverv (DE)
er grundlæggende af den holdning, at man i videst
muligt omfang bør arbejde med kongruens i lovgivningsarbejdet, at
regulering som udgangspunkt bør være teknologineutralt, og at der bør
være taget stilling til, om myndighederne har mulighed for effektivt at
håndhæve loven. Som erhvervsorganisation er DE ikke bekendt med sager
ved domstolene, der udviser de udfordringer ift. påvisning af kausalitet,
som forslagets artikel 4 sigter mod at løse.
DE
finder, at den teknologiske udvikling sker i meget højt tempo, og mener
derfor, at regulering bør være teknologineutral.
Dansk Industri (DI)
er generelt positive over for hensigten bag
Kommissionens forslag til AI Liability Act. Det er positivt, at forslaget
søger at lette bevisbyrden for brugere, som er forvoldt skade af defekte
produkter, der involverer AI-systemer. DI ønsker, at brugere føler sig
13
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
trygge ved brug af produkter og tjenester, der involverer AI-systemer, hvad
enten det er forbrugere eller virksomheder. Samtidig er DI dog meget
bekymret over forslagets tilgang til at sikre brugerne og mener, at
forslagets nuværende form kan have negativ indflydelse på producenternes
innovations- og konkurrenceevne. Det er afhørende at sikre balance
mellem brugernes rettigheder og producenternes rettigheder.
Dansk Metal
bemærker, at Kommissionen ønsker, at forbrugere af AI-
produkter i fremtiden skal have det samme beskyttelsesniveau som
forbrugere af traditionelle teknologier. Dette skal blandt andet opnås ved
at gøre det nemmere for ofre for AI-relaterede skader at få erstatning.
Dansk Metal er positive over for Kommissionens fokus på at håndtere
udfordringen med hvem der er ansvarlige ved AI-relaterede skader.
Ligeledes er Dansk Metal glade for, at Kommissionen søger at skabe en
balance mellem beskyttelse af forbrugere og fremme af innovation.
Kommissionen fremhæver selv, at europæiske virksomheder anser
udfordringen med retligt ansvar relateret til brugen af AI som en af de tre
største barrierer for at gøre brug af teknologien. Direktiver søger at fjerne
den barriere, hvilket i ens optik er positivt, idet brugen af ny teknologi er
afgørende for at skabe øget produktivitet.
Ydermere noterer Dansk Metal sig, at Kommissionen med direktivet
ønsker yderligere at harmonisere reglerne i medlemslandene og dermed
skabe lige konkurrence på det indre marked. Dette bakker Dansk Metal op
om.
Forbrugerrådet Tænk
har i forbindelse med selve AI-forordningen, som
direktivet om AI-ansvar udspringer fra, at man i forordningen savner
specifikke regler om forbrugernes rettigheder, herunder om indsigt,
klageadgang og erstatning. Forbrugerrådet Tænk er derfor positive over for
Kommissionens forslag om at supplere AI-forordningen med specifikke
ansvarsregler for AI. Samtidig er det positivt, at forslaget lægger op til at
gælde alle former for AI-produkter og ikke kun højrisiko produkter, som
forordningen særligt regulerer.
Forsikring & Pension (F&P)
har forståelse for, at Kommissionen ønsker
at implementere regler, som regulerer nogle af de mere centrale elementer
omkring brugen af AI, og har forstået, at motivationen bag har været et
behov for at skabe sikkerhed og tryghed hos forbrugerne i forhold til
virksomheders brug af AI, hvilket sikres af den kommende AI-forordning.
Generelt er F&P dog af den opfattelse, at de nuværende regler omkring
produktansvar ganske fint regulerer området. De planlagte ændringer af
produktansvarsloven (PLD) vil også inkludere ny teknologi som AI.
Styrken ved PLD er, at rammeværket er teknologi-neutralt, og dermed
sikrer en level playing field, uanset hvordan et produkt fungerer.
14
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0015.png
Specifikke bemærkninger
Relation til anden lovgivning og sideløbende forslag om revisionen af
produktansvarsloven
DI
er som nævnt optaget af at den danske tilgang til rækken af ny
regulering fra EU, herunder AI Act, AI Liability Directive,
produktansvarsloven og Data Act, er koordineret og samtænkt med et
stærkt fokus på balance, innovation, udvikling og rettigheder. Det gælder i
særdeleshed ift. AI Act og AI Liability Directive, hvor der naturligt er en
tæt sammenhæng. Forslagene skal afstemmes på tværs. I den forbindelse
er det særligt relevant, at den kommende kompetente myndighed netop er
samtænkt og afstemt på tværs af forslagene og vil have et stærkt fokus på
netop mulighederne og innovationen i lige så høj grad som på tilsyn og
rettigheder.
Forbrugerrådet Tænk
bemærker, at forslaget kommer samtidig med, at
revisionen af produktansvarsdirektivet (PLD) er i gang, og foreslår, at det
nøje overvejes hvorvidt det vil være mere hensigtsmæssigt at lade AI-
ansvarsreglerne indgå i PLD, fremfor at etablere to selvstændige regelsæt
som vedrører produktansvar.
Uanset om de to regelsæt opretholdes eller bliver til ét, finder
Forbrugerrådet Tænk, at ansvaret efter AI-ansvarsdirektivet sidestilles med
det strengere producentansvar efter PLD. Produkter, hvori AI indgår og
som kan forårsage skader kan på samme måde være farlige, som de
produkter, der i dag er omfattet af PLD. Det er netop det objektive ansvar,
der giver virksomhederne et incitament til at producere sikre produkter.
Forbrugerrådet Tænk eftersender et endeligt politikpapir, når man har haft
lejlighed til at drøfte forslaget med søsterorganisationen BEUC i Bruxelles.
F&P
ser ikke noget behov for at lave særlige regler i forhold til udvalgte
produkter. F&P’s anbefaling er derfor,
at der arbejdes for, at man ikke
indfører speciallovgivning i forhold til AI, men i stedet via ændringer i
PLD sikrer, at
alle
(software)produkter behandles ens. F&P er bekymrede
for, at et separat regime for AI vil have den utilsigtede konsekvens, at
innovation og udvikling på software-og dataområdet reelt kommer til at
begrænse europæiske virksomheder i udviklingsmuligheder i forhold til
andre lande. Samtidig risikerer man et bevist fravalg af AI-løsninger
selvom de vil være den teknisk optimale løsning i et givent tilfælde
fordi
særreglerne pålægger teknologien unødige byrder. Det vil føre til færre nye
virksomhedssatsninger og mindre innovation på området, og potentielt
også højere priser på AI-baserede produkter og tjenester.
15
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0016.png
Højrisiko og ikke-højrisiko AI
DI
noterer sig, at forslaget behandler både højrisiko og ikke-højrisiko AI.
DI finder det svært at forstå argumentet for at have en bredere håndhævelse
under dette direktiv end under AI Act og vil argumentere for, at der bør
afstemmes med AI Act. Samtidig er det fortsat under forhandling, hvad
højrisiko anvendelse af AI er under AI Act. DI understreger, at vi er nødt
til at have fuld klarhed over definitioner i AI Act, før vi kan tage stilling til
sammenhængen med AI Liability Act.
Definition af kunstig intelligens (artikel 2)
DE
mener, at god regulering bør hænge sammen, og dette kræver bl.a.
ensartet brug af nøglebegreber. Ift. dette forslag er definitionen på kunstig
intelligens (AI) afgørende. Forslagets artikel 2(1) og (2) henviser til AI Act
og den her gældende definition. Det bemærkes, at der er igangværende
forhandlinger i både EU Parlamentet og Rådet, og at netop definitionen på
AI fortsat diskuteres. Dertil kommer trilogforhandlingerne, og dermed er
den endelige definition på AI i forordningen på nuværende tidspunkt
ukendt. DE mener, at det vil være hensigtsmæssigt at afvente AI-
forordningens endelige vedtagelsestekst, før der indføres ny regulering, der
som nærværende forslag i så høj grad gør brug af centrale definitioner fra
forordningen.
DI
finder det positivt, at AI Liability Act følger AI Act definitionen af AI
til trods for, at denne definition endnu ikke er fastlagt. Det er vigtigt, at AI
Liability Act generelt følger andre forordninger og direktiver.
Fremlæggelse af beviser og afkræftelig formodning om manglende
overholdelse (artikel 3) samt afkræftelig formodning om årsagsforbindelse
i tilfælde af fejl (artikel 4)
DE
støtter, at forslagets artikel 3(4) pålægger domstolene at begrænse
omfanget af beviser til det nødvendige for sagen, og at domstolene
specifikt pålægges at tage skridt til at sikre fortroligheden af
forretningshemmeligheder.
DI
finder forslagets artikel 3 og artikel 4 meget problematiske og ikke
afbalancerede i forhold til producenterne. Hele præmissen for forslaget er,
at det skal være nemmere at få erstatning hvis et system indeholder fejl i
relation til manglende compliance. DI mener, at dette er for snævert og kan
have store konsekvenser for producenten. Forslaget bør have til formål at
sikre både bruger og producent. Artikel 3(5) og artikel 4(1) fremsætter
ifølge DI svært afkræftelige formodninger om fejl og kausalitet. Her bør
der introduceres en strammere ramem for bevis. En fejl skal kunne
dokumenteres, ikke sansyndliggøres.
16
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0017.png
DI
finder det stærkt problematisk at brugeren kan bede producenten
fremføre al information omkring AI-systemet. Det er vigtigt for både
producent og bruger at information ikke skal fremvises unødvendigt.
Virksomheders forretningshemmeligheder må ikke afsløres ved
fremvisning af potentielt bevismateriale, hvilket er positivt at artikel 3 (4)
sætter fokus på. Det er dog stadig uklart hvorfor forslaget fremsætter
tidsfrister, der giver sagsøger mulighed for alligevel at få fremført
information, og hvis materialet ikke er tilstrækkeligt, kan en national ret
formode fejl i AI-systemet. Dette vil være stærkt problematisk for
producenten.
F&P
ser en udfordring i forhold til forslagets disclosure-regler (bevisbyrde
samt krav om at fremlægge dokumentation alene ved en formodning).
Kravet om at en virksomhed i tilfælde af et krav skal fremlægge
relevant
dokumentation kan få den uheldige konsekvens, at virksomheder, som ser
AI som en konkurrenceparameter og dermed deres løsninger som
forretningshemmeligheder, eller anvender andres AI-programmer (fx
leverandører fra tredjelande), ikke nødvendigvis er i stand til at leve op til
dette krav. Kan eller vil man ikke fremlægge dokumentation, betyder loven
endvidere, at den ikke fremlagte dokumentation skal tolkes således, at den
understøtter et erstatningskrav. Grundlæggende ser F&P dette som meget
uhensigtsmæssigt.
I forsikringsregi mener F&P endvidere, at ovenstående samtidig har den
effekt, at virksomheder, som ikke kan eller vil fremlægge dokumentation,
vil stå uden forsikringsdækning, da de ikke har levt op til kravene om at
begrænse erstatningskrav. Det betyder, at virksomheder, som anvender AI
som en kritisk del af sin forretning, kan have svært ved at beskytte og
forsvare sig i forhold til at afklare et erstatningskravs relevans og de
økonomiske konsekvenser af sådanen erstatningskrav.
9. Generelle forventninger til andre landes holdninger
Der foreligger på nuværende tidspunkt ikke konkrete oplysninger om andre
landes holdninger til selve forslaget.
Dog forventes en generel opbakning blandt medlemslandene til
udformningen af fælles regler til at sikre, at ofre for skader forårsaget af
kunstig intelligens-systemer har adgang til samme beskyttelsesniveau som
ofre for andre produkter og teknologier. Samtidig forventes overordnet
opbakning til tiltag, der søger at fremme udbredelsen af pålidelig kunstig
intelligens for således at sikre tillid i samfundet og samtidig styrke
funktionen af det indre marked. I forbindelse med forhandlingerne af
kunstig intelligens-forordningen har flere lande påpeget behov for en
effektiv klageadgang for borgere eller forbrugere, som er blevet påvirket
negativt at et AI system. Det forventes, at disse lande vil se positivt på
forslaget.
17
kom (2022) 0496 - Bilag 1: Grund- og nærhedsnotat vedr. reglerne om civilretligt ansvar uden for kontraktforhold til kunstig intelligens
2637988_0018.png
10. Regeringens foreløbige generelle holdning
Overordnet støtter regeringen ambitionen om at fastlægge fælles regler om
erstatningsansvar for skader forårsaget af kunstig intelligens-systemer,
herunder forslagets tilgang til håndtering af sådanne krav. Regeringen
finder det vigtigt, at der fastsættes et højt harmoniseringsniveau, således at
de samme regler for ansvar og kompensation gælder på tværs af EU for at
sikre lige konkurrencevilkår mellem danske og europæiske virksomheder
og et højt forbrugerbeskyttelsesniveau.
Regeringen finder det centralt, at forslaget bidrager til en ansvarlig og etisk
anvendelse af kunstig intelligens-løsninger og dataene bag disse.
Regeringen støtter tiltag til at fremme udbredelsen af pålidelig kunstig
intelligens ved at give udbydere incitamenter til at forebygge skader og
sikre ansvarlighed.
Regeringen ser positivt på etableringen af et minimumbeskyttelsesniveau
for borgere og virksomheder i EU, samt sikre en mere proportional adgang
til erstatning i forbindelse med skader forårsaget af kunstig intelligens-
systemer.
I den anledning bakker regeringen op om, at domstole får mulighed for at
pålægge udviklere, udbydere mv. en pligt til at fremlægge relevant
dokumentation om højrisiko kunstig intelligens-systemer, der er mistænkt
for at have forvoldt skade mod brugeren.
Regeringen finder det centralt, at centrale begreber i forslaget (f.eks.
bestemmelserne om afkræftelig formodning) klarlægges. Regeringen
finder det derudover vigtigt, at myndighederne ikke pålægges unødige
omkostninger i forbindelse med den årlige rapportering. Derudover finder
regeringen det vigtigt at sikre bedst muligt samspil med de generelle
produktansvarsregler til gavn for myndigheder, virksomheder og
forbrugere.
11. Tidligere forelæggelse for Folketingets Europaudvalg.
Sagen har ikke tidligere været forelagt Folketinget Europaudvalg
18