Europaudvalget 2018-19 (1. samling)
KOM (2019) 0168 Bilag 1
Offentligt
2057099_0001.png
GRUND- OG NÆRHEDSNOTAT TIL
FOLKETINGETS EUROPAUDVALG
16. april 2019
Kommissionens
meddelelse:
”Opbygning
af
menneskecentreret kunstig intelligens”
KOM(2019)
168
1.
Resumé
tillid
til
Europa-Kommissionen har 8. april 2019
fremsat meddelelsen ”Opbygning
af tillid til menneskecentreret kunstig intelligens”. Meddelelsen har til
formål at iværksætte en pilotfase med henblik på at afprøve den praktiske
anvendelse af de etiske retningslinjer for pålidelig kunstig intelligens, som
højniveauekspertgruppen om kunstig intelligens præsenterede 8. april 2019.
I meddelelsen opstilles syv centrale krav til pålidelig kunstig intelligens,
som identificeres som afgørende for at sikre borgernes tillid. De syv
centrale krav som kunstig intelligens skal leve op til for at kunne
karakteriseres som pålidelig vedrører: 1) Menneskelige aktiviteter og tilsyn
udført af mennesker, 2) teknologisk robusthed og sikkerhed, 3) privatlivets
fred og datastyring, 4) gennemsigtighed, 5) mangfoldighed,
ikkediskrimination og retfærdighed, 6) social og miljømæssig velfærd og
7)
ansvarlighed.
Pilotfasen vil bestå af to dele: 1) en pilotfase for retningslinjer med
inddragelse af interessenter, som udvikler eller anvender kunstig
intelligens, herunder offentlige myndigheder, og 2) en fortsat
interessenthøring og bevidstgørelsesproces af medlemsstaterne og
forskellige interessentgrupper.
I begyndelsen af 2020 vil højniveauekspertgruppen for kunstig intelligens
gennemgå samt ajourføre retningslinjerne på baggrund af den feedback,
der er modtaget i pilotfasen. Baseret på denne gennemgang vil
Kommissionen evaluere indsatsen og foreslå eventuelle næste skridt.
Kommissionen vil desuden øge indsatsen for at fremme EU’s tilgang til
kunstig intelligens på den globale scene og arbejde for, at der skal opnås
enighed om en menneskecentreret tilgang til kunstig intelligens
internationalt.
Regeringen hilser meddelelsen velkommen og er positivt stemt overfor at
fremme ansvarlig anvendelse af kunstig intelligens på linje med regeringens
tiltag på denne dagsorden. Regeringen støtter desuden tilgangen med at
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
2057099_0002.png
gennemføre pilottest af de etiske retningslinjer, med henblik på at sikre at
de kan anvendes af virksomheder og myndigheder i praksis.
2.
Baggrund
Europa-Kommissionen offentliggjorde den 8. april 2019 meddelelsen
”Opbygning af tillid til menneskecentreret kunstig intelligens” (KOM
(2019) 168). Meddelelsen, som er modtaget i dansk sprogversion den 8.
april 2019, har til formål at iværksætte en pilotfase med henblik på at
afprøve den praktiske anvendelse af de etiske retningslinjer for pålidelig
kunstig intelligens, som Kommissionens højniveauekspertgruppe om
kunstig intelligens offentliggjorde den 8. april 2019. Meddelelsen
reflekterer de fleste områder berørt i højniveauekspertgruppens etiske
retningslinjer, dog er der enkelte konkrete temaer, som meddelelsen ikke
eksplicit forholder sig til, herunder automatiserede våbensystemer og
automatiseret rangering af borgere pga. deres sociale adfærd.
Meddelelsen kommer desuden i forlængelse af Kommissionens meddelelse
”Koordineret plan for kunstig intelligens”
(KOM(2018) 795) fra 7.
december 2018. Meddelelsen udpegede syv overordnede områder, hvor
EU-medlemsstaterne bør koordinere deres indsatser med henblik på at
maksimere udbyttet af kunstig intelligens
herunder udviklingen af etiske
retningslinjer med et globalt perspektiv, som sikrer innovationsvenlige
retlige rammer.
Begge ovennævnte meddelelser kommer
som opfølgning på
Kommissionens meddelelse
”Kunstig intelligens for Europa”
(KOM(2018) 237) fra 25. april 2018, der lagde op til udarbejdelsen af en
koordineret plan for kunstig intelligens med inddragelse af medlemsstaterne
og til at sætte mennesket i centrum for udviklingen af kunstig intelligens.
Kommissionen har igennem 2018 og 2019 lagt vægt på at øge
investeringerne i kunstig intelligens. Den koordinerede plan for kunstig
intelligens målretter og omprioriterer således eksisterende initiativer for
kunstig intelligens i 2019 og 2020, og derudover anvises en linje for de
kommende programmer på området. Kommissionens forslag til finansiering
af de i handlingsplanen anviste initiativer tilvejebringes frem til afslutningen
af indeværende flerårige budgetperiode via omprioriteringer inden for
allerede eksisterende programmer som bl.a. Horisont 2020, Den
Europæiske Investeringsfond, European Innovation Council, ECSEL og
Connecting Europe Facility.
I den kommende flerårige budgetperiode (MFF) for 2021-2027 foreslår
Kommissionen at opprioritere kunstig intelligens i programmer som Digitalt
Europa og Horisont Europa.
2
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
2057099_0003.png
3.
Formål og indhold
Formålet med meddelelsen er at iværksætte en pilotfase med henblik på at
afprøve den praktiske anvendelse af de etiske retningslinjer for udvikling og
anvendelse
af
kunstig
intelligens,
som
Kommissionens
højniveauekspertgruppe om kunstig intelligens har præsenteret.
Retningslinjerne fastslår, at for at opnå "pålidelig kunstig intelligens" er tre
komponenter nødvendige: 1) Kunstig intelligens skal være i
overensstemmelse med loven, 2) Kunstig intelligens skal opfylde etiske
principper og 3) Kunstig intelligens skal være teknologisk robust/stabilt.
Baseret på disse tre komponenter og en kortlægning af europæiske værdier
identificerer retningslinjerne syv centrale krav, som kunstig intelligens skal
opfylde for at blive betragtet som pålidelige og som vil indgå i pilottesten:
1) Menneskelige aktiviteter og tilsyn udført af mennesker
Det første krav handler om, at systemer baseret på kunstig intelligens bør
understøtte menneskelige valg, aktiviteter og grundlæggende rettigheder og
ikke mindske, begrænse eller vildlede menneskers autonomi. Afhængigt af
det specifikke system og dets anvendelsesområde bør passende grader af
kontrolforanstaltninger og tilsyn sikres. Det er desuden vigtigt, at offentlige
tilsynsmyndigheder har de nødvendige redskaber til at udfylde deres
tilsynsopgave ift. kunstig intelligens.
2) Teknologisk robusthed og sikkerhed
Det andet krav handler om, at kunstig intelligens skal være sikker, stabil og
robust. Det betyder bl.a., at kunstig intelligens skal kunne håndtere fejl eller
uoverensstemmelser i alle livscyklusfaser samt reagere hensigtsmæssigt på
fejlagtige resultater. Systemer baseret på kunstig intelligens skal være
modstandsdygtige over for både åbenlyse angreb og mere raffinerede forsøg
på manipulation af data eller algoritmer. Beslutninger truffet af kunstig
intelligens skal være nøjagtige eller i det mindste korrekt afspejle deres
grad af nøjagtighed, og deres resultater bør være reproducerbare.
3) Privatlivets fred og datastyring
Det tredje krav handler om at gøre det muligt for enkeltpersoner at stole
på databehandling foretaget af kunstig intelligens, ved at sikre at de har
fuld kontrol over deres egne data, og at disse data ikke vil blive brugt til
at skade eller diskriminere dem. Processer og datasæt skal testes og
dokumenteres på hvert trin i kunstig intelligens-systemets livscyklus, med
henblik på at minimere risikoen for at data afspejler socialt konstrueret
bias eller har fejl og mangler. Endelig skal adgangen til data styres og
kontrolleres på passende vis.
4) Gennemsigtighed
Det fjerde krav handler om, at beslutninger truffet af kunstig intelligens bør
være sporbare og at det bør sikres, så vidt muligt, at den algoritmebaserede
3
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
beslutningsproces kan forklares på en måde, som kan forstås af de
involverede personer. Det er desuden vigtigt at informere de berørte
interessenter om systemets kapacitet og begrænsninger på en
hensigtsmæssig måde samt at brugerne ved, at de interagerer med et system
baseret på kunstig intelligens.
5) Mangfoldighed, ikkediskrimination og retfærdighed
Det femte krav handler om at gennemføre foranstaltninger, som skal
begrænse diskrimination forårsaget af datasæt, der anvendes af kunstig
intelligens-systemer (både til oplæring og drift). Diskriminationen kan fx
opstå, hvis de datasæt, der anvendes, er ufuldstændige eller rummer en
utilsigtet historisk bias.
6) Social og miljømæssig velfærd
Det sjette krav handler om, at
kunstig intelligens’
indvirkning på miljøet og
følende væsener bør tages i betragtning. Der bør tilskyndes til kunstig
intelligens-systemer med bæredygtighed og miljømæssigt ansvar.
Derudover bør indvirkningen af systemerne ikke kun vurderes ud fra et
individuelt perspektiv men også fra et perspektiv, der ser samfundet som en
helhed.
7)
Ansvarlighed
Det syvende krav handler om, at der bør indføres mekanismer til at sikre
ansvarlighed og tilregnelighed for kunstig intelligens-systemer og deres
resultater både før og efter deres implementering. Dette drejer sig bl.a. om
muligheden for revision af systemerne
især i forbindelse med
applikationer, der påvirker grundlæggende rettigheder, herunder
sikkerhedskritiske applikationer. Det er desuden et krav, at kunstig
intelligens-systemers potentielle negative virkninger forsøges identificeret,
evaluereret, dokumentereret og minimeret. Endelig bør der sikres passende
erstatning i tilfælde af urimelige, negative konsekvenser.
Kommissionen påpeger i meddelelsen, at de betragter etisk kunstig
intelligens, der efterlever ovenstående centrale krav, som en gevinst for alle
involverede parter og ikke som en barriere for innovation og vækst. Det er
ikke kun vigtigt at sikre respekten for grundlæggende værdier og
rettigheder; det gør det også lettere for offentligheden at have tillid til
kunstig intelligens og kan desuden skabe en konkurrencefordel for
europæiske virksomheder.
Pilotfasen
Med henblik på at sikre, at de ovenstående krav kan efterleves i praksis
vil Kommissionen iværksætte en pilotfase, hvor retningslinjerne kan
afprøves og anvendes i praksis med involvering af de relevante
interessenter. En vigtig del af formålet med pilotfasen er at indhente
feedback fra relevante interessenter. Denne øvelse vil især fokusere på
4
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
den
evalueringsliste
med
konkrete
spørgsmål,
som
højniveauekspertgruppen har udarbejdet for hvert af de centrale krav.
Pilotfasen vil bestå af to dele:
1.
Fra juni 2019 vil interessenter og enkeltpersoner blive inviteret til
at teste evalueringslisten og give feedback på, hvordan den kan
forbedres. Højniveauekspertgruppen vil derudover gennemføre en
detaljeret undersøgelse med interessenter fra den private og
offentlige sektor for at indsamle mere udførlig feedback om,
hvordan retningslinjerne kan implementeres inden for en lang
række anvendelsesområder og sektorer. Feedback vedrørende
retningslinjernes anvendelighed vil blive evalueret ved udgangen
af 2019.
Kommissionen vil samtidig tilrettelægge yderligere opsøgende
aktiviteter med henblik på at præsentere retningslinjerne for
relevante interessenter i medlemsstaterne, herunder industri- og
servicesektorer, samt give disse interessenter en ekstra mulighed
for at kommentere på og bidrage til retningslinjerne for kunstig
intelligens.
2.
I begyndelsen af 2020 vil højniveauekspertgruppen ajourføre
retningslinjerne med udgangspunkt i evalueringen af den feedback, der er
modtaget i pilotfasen. Baseret på denne gennemgang og den erhvervede
erfaring vil Kommissionen evaluere resultatet og foreslå eventuelle næste
skridt.
Internationale etiske retningslinjer for kunstig intelligens
Kommissionen angiver i meddelelsen, at internationale drøftelser for etik
vedrørende kunstige intelligenser er intensiveret, efter at Japans G7-
formandskab i 2016 satte emnet højt på dagsordenen. Kommissionen
ønsker derfor at fortsætte sine bestræbelser på at fremme
EU’s tilgang til
dataetik på den globale scene. Det er Kommissionens ambition, at EU
skal have en lederrolle i udviklingen af internationale retningslinjer og
evt. en tilhørende evalueringsmekanisme.
Derfor vil Kommissionen:
Udforske, i hvor høj grad konvergens med tredjelandes udkast
til etiske retningslinjer kan opnås (fx Japan, Canada,
Singapore).
Udforske, hvordan virksomheder fra tredjelande og
internationale virksomheder kan bidrage til retningslinjernes
"pilotfase" gennem afprøvning og validering.
Bidrage til multilaterale fora som G7 og G20.
5
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
2057099_0006.png
Indgå i dialog med tredjelande og tilrettelægge bi- og
multilaterale møder for at skabe enighed om
menneskecentreret kunstig intelligens.
Bidrage
til
relevante
standardiseringsaktiviteter
i
internationale standardudviklende organisationer for at
fremme denne vision.
Styrke indsamling og formidling af indsigt i offentlige
politikker gennem samarbejde med relevante internationale
organisationer.
4.
Europa-Parlamentets udtalelser
Europa-Parlamentet har endnu ikke udtalt sig om meddelelsen.
5.
Nærhedsprincippet
Der redegøres ikke for nærhedsprincippet, idet der alene er tale om en
meddelelse fra Kommissionen.
.
6.
Gældende dansk ret
Ikke relevant.
7.
Konsekvenser
Lovgivningsmæssige konsekvenser
Meddelelsen har ikke i sig selv lovgivningsmæssige konsekvenser.
Økonomiske konsekvenser
Meddelelsen har ikke i sig selv direkte økonomiske konsekvenser.
Andre konsekvenser og beskyttelsesniveauet
Meddelelsen er ikke en retsakt og medfører derfor ikke i sig selv
konsekvenser for beskyttelsesniveauet eller administrative konsekvenser
for dansk erhvervsliv.
8.
Høring
Generelle bemærkninger
Finans Danmark (FD)
støtter helt overordnet det arbejde som EU-
kommissionen har i igangsat ift. kunstig intelligens og hovedpointerne i
dokumentet.
6
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
2057099_0007.png
Forbrugerrådet Tænk (FT)
er enige i meddelelsens fokus på både de
mange fordele kunstig intelligens har for den enkelte og for vores samfund
og på de forskellige etiske udfordringer indenfor blandt andet
databeskyttelse, bias og it-sikkerhed, der kan opstå i kølvandet på brugen af
kunstig intelligens.
Ingeniørforeningen i Danmark (IDA)
er overordnet meget enige i EU-
Kommissionens tilgang til,
at kunstig intelligens skal være ”human-centric
AI”.
IDA
er også meget positiv overfor EU-kommissionens store indsats
for at sætte fokus på, belyse og finde konkrete løsninger for de meget
vigtige etiske aspekter af udvikling og brug af kunstig intelligens. Der er
ingen tvivl om, at kunstig intelligens, brugt på den rigtige måde, har kæmpe
potentialer i forhold til produktudvikling, forskning og sikring af
velfærdsstaten m.v. Men det er også afgørende, at der skabes
opmærksomhed på udfordringerne ved kunstig intelligens, ligeså vel som
der udvikles klart definerede krav til, hvordan man bruger kunstig
intelligens etisk forsvarligt.
Dansk Industri (DI)
angiver, at det med tilfredshed kan konstateres, at der
i EU-regi er etableret en ambitiøs indsats, der skal sikre digital ansvarlighed
i anvendelsen og udviklingen af kunstig intelligens. Et væsentligt aspekt
ved den fremtidige udvikling og anvendelse af kunstig intelligens er, hvad
vi anvender kunstig intelligens til, og hvordan vi anvender kunstig
intelligens, så de beslutninger, resultater eller anbefalinger, der udspringer
fra kunstig intelligens, er troværdige. Det vil blandt andet sige, at det er
beslutninger, resultater og anbefalinger, som man kan stole på, herunder at
de er korrekte, ikke-diskriminerende og generelt ikke krænker fundamentale
menneskerettigheder.
DI
opfordrer regeringen til at sætte fart på de danske
initiativer i regeringens nationale strategi for kunstig intelligens med
henblik på at sikre danske virksomheder de bedst mulige konkurrencevilkår
for at gøre digital ansvarlighed i kunstig intelligens til en dansk
styrkeposition og et konkurrenceparameter.
DI
opfordrer endvidere
regeringen til allerede nu at planlægge yderligere skridt til at skabe gunstige
vækstbetingelser for kunstig intelligens made in Denmark, herunder at
afsætte de nødvendige økonomiske ressourcer. Et eksempel er, at Danmark
i runde vendinger skal fordoble sine årlige midler til AI-relateret forskning,
hvis vi relativt set skal matche den franske AI-satsning.
Specifikke bemærkninger
Etiske retningslinjer
FT
støtter ambitionen om at udvikle et sæt europæiske etiske retningslinjer
om kunstig intelligens og er helt enige i de principper og krav, som nu
udgør retningslinjerne, og som har til formål at sætte mennesket i centrum
og tage udgangspunkt i europæiske værdier såsom menneskerettigheder,
frihed, ligeværd og demokrati. Samtidig er
Tænk
enige i vigtigheden af, at
7
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
retningslinjerne skal bygge ovenpå eksisterende juridiske regelsæt som
databeskyttelsesreglerne
(GDPR)
og
andre
europæiske
forbrugerbeskyttelsesregler. Endelig mener
Tænk,
at processen omkring
udvikling af retningslinjerne er fin med den brede sammensætning af
stakeholders i EU og planen om at iværksætte pilotprojekter, som skal
afprøve indholdet i praksis.
Tænk
finder, at der i høj grad er behov for at
adressere, hvordan GDPR konkret finder anvendelse i forhold til udvikling
af kunstig intelligens, herunder i forhold til dataindsamling og principperne
om dataminimering og privacy by design mv. Uanset at retningslinjerne
handler om etik og ikke eksisterende lovgivning, er der fare for, at det bliver
svært at implementere retningslinjerne i praksis, så længe der fortsat hersker
usikkerhed om, hvordan eksisterende regler konkret finder anvendelse på
AI. Ved at adressere GDPR mere konkret i retningslinjerne, fastholdes også
den vigtige pointe, at udvikling af kunstig intelligens først og fremmest er
underlagt lovgivning og dermed skal efterleves af virksomheder mv. og
håndhæves af myndighederne. Faren ved primært at fokusere på dataetik,
når det kommer til kunstig intelligens er, at retningslinjerne er frivillige og
dermed ikke forpligtende at følge.
DI
værdsætter arbejdet i regi af EU-kommissionen med at udarbejde Ethics
Guidelines for Trustworthy Artificial Intelligence, da det er både
nødvendigt og udtryk for rettidig omhu. DI sætter også pris på meddelelsens
vægt på at skabe internationale etiske retningslinjer for kunstig intelligens i
stedet for alene europæiske retningslinjer. Virksomheder, der arbejder med
kunstig intelligens, er i lige så høj grad internationale som europæiske, og
en international konsensus på området vil lette virksomhedernes muligheder
for at skabe nye værdiskabende løsninger baseret på kunstig intelligens
frem for at skulle forholde sig til forskellige retningslinjer alt efter hvilket
geografisk marked, som virksomheden henvender sig til.
Pilotfasen
DI
opfordrer til at pilotfasen bør adressere behovet for mere
sektorspecifikke krav, da det virker usandsynligt, at der er tale om, at de
formulerede krav til digital ansvarlighed i kunstig intelligens er en
”one size
fits all”-model,
der er lige relevant for alle sektorer og løsninger baseret på
kunstig intelligens. Eksempelvis bør der være forskel på krav til anvendelse
af kunstig intelligens i sundhedssektoren og i forbindelse med digital
handel.
e-Privacy
FT
finder, at samspillet mellem GDPR og e-Privacy direktivet (eller
”cookie-reglerne”) bør adresseres i forhold til AI. Da e-Privacy
direktivet
endnu ikke er opdateret i tråd med GDPR, hersker der i praksis en
forskelligartet fortolkning af reglerne, som der bør rådes bod på i
forbindelse med udvikling af kunstig intelligens.
8
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
Bias
FD
bakker 100 procent op om intentionen med at undgå og minimere, at
kunstige intelligenser benytter data som er biased. Data som i dag måtte
betragtes som un-biased kan meget vel i fremtiden blive betragtet som
biased. Derfor vil det i praksis være umuligt at helt at undgå at kunstige
intelligenser bliver trænet med data, som efterfølgende viser sig at være
biased.
Ikke-identificerbare data
FT
henviser til, at der i EU-Kommissionens meddelelse også henvises til
EU-reglerne om brug af ikke-identificerbar data, som et vigtigt juridisk
grundlag i forbindelse med udvikling af kunstig intelligens. Her er det uklart
for
Tænk,
hvordan det harmonerer med planerne for brug af kunstig
intelligens i Danmark, hvor der er en lang tradition for brug af CPR-numre i
den offentlige sektor. Ses der fx på kommunernes fremtidige muligheder for
at anvende kunstig intelligens og fx rangordne borgere med henblik på at
finde udsatte børn, vil denne metode formentlig bygge på oplysninger
knyttet til CPR. Det samme gør sig gældende, hvis kunstig intelligens
anvendes i sygehusvæsenet for at forbedre sundheden, hvor data fx kan
stamme fra identificerbare patientjournaler. For
Tænk
at se er det usikkert,
hvordan GDPR skal fortolkes konkret ift. anvendelsen af kunstig
intelligens, hvilket formentlig vil gøre det endnu sværere at vurdere, hvad
brug af retningslinjerne vil føre til.
Tænk’s
pointe er altså, at GDPR først
og fremmest finder anvendelse og bør afklares i forhold til AI, således at
retningslinjerne ikke blot bliver nogle ”pæne ord”, som bliver svære at
anvende i praksis.
Frivillig efterlevelse
FT
angiver, at det er vigtigt at være opmærksom på, at det på visse områder
indenfor udvikling og brug af AI, formentlig er langt fra tilstrækkeligt med
et sæt frivillige retningslinjer. Både i de tilfælde hvor GDPR eller andre
relevante regelsæt ikke finder anvendelse, fx på essentielle krav til
algoritmer, eller fordi førende virksomheder indenfor brug af kunstig
intelligens såsom Google, Facebook eller kinesiske producenter af IoT-
produkter kan have stor udbredelse blandt forbrugere i EU uden
nødvendigvis at være optaget af dataetik. Det er derfor vigtigt, at EU-
Kommissionen løbende fokuserer på, hvor der er behov for at opdatere
eksisterende lovgivning, og hvor der er et specifikt behov for ny lovgivning.
Desuden finder
Tænk,
at der
så længe retningslinjerne ikke er bindende
bør stilles krav om, at virksomheder mv. skal tydeliggøre (særligt hvis de
også er målrettet europæiske brugere) har tilsluttet sig de europæiske
retningslinjer eller ej. Af hensyn til at sikre overholdelse af retningslinjerne,
uanset deres ikke-bindende karakter, finder
Tænk
det nødvendigt, at de
nationale landes myndigheder påtager sig et ansvar for at sikre deres
udbredelse. Samtidig er det vigtigt at udbrede kendskabet til og behovet for
dataetiske virksomheder blandt borgere og forbrugere, så dataetik kan blive
9
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
2057099_0010.png
et konkurrenceparameter på sigt. Det er uklart, hvordan retningslinjerne
forholder sig til denne del.
Mærkningsordning
IDA
er grundlæggende positive overfor elementerne i EU-kommissionens
udspil, men vil gerne foreslå enkelte tilføjelser: Ligesom den danske
ekspertgruppe for dataetik under det tidligere Disruptionråd foreslog det for
brug af data, så vil en etisk certificering af kunstig intelligens være nyttig
en mærkningsordning for etisk korrekt brug af AI. En certificering har den
fordel, at der for det første udvikles meget præcise krav til, hvad man f.eks.
som virksomhed skal gøre for at opnå et ”etik-mærke”. Præcise krav gør det
alt andet lige lettere at handle på et område, der kan forekomme noget
udefinerbart. For det andet, at de virksomheder, der efterlever kravene, får
en meget synlig og let tilgængelig måde at vise det på, som kan have en
positiv effekt i en konkurrencesituation.
Dataetisk appelinstans
IDA
angiver, at et andet vigtigt element er, at der i forhold til principperne
om ”human agency and oversight” og ”transparency” indtænkes en
appelinstans, der kan tage imod klager og forespørgsler fra borgere og
brugere. Det kunne være i form af en ombudsmand, der har kapaciteten til
at undersøge og gennemskue f.eks. beslutningsprocessen bag en
algoritmeafgørelse. Denne instans skal også på eget initiativ kunne tage
sager op til undersøgelse.
Standardisering
DI
mener, at international konsensus fremfor regionale værdiregimer er
særligt vigtigt, når feltet for kunstig intelligens er nyt og under heftig
udvikling, og at der samtidig er et stort fokus på, at det skal ske på en
ansvarlig måde.
DI
opfordrer derfor til, at arbejdet i EU-regi koordineres
med
eller som minimum indeholde referencer til - andre tilsvarende
arbejder, som vil være relevante
f.eks. det påbegyndte
standardiseringsarbejde i blandt andet i regi af den internationale
standardiseringsorganisation (ISO). Der er naturligvis en risiko for, at der
vil være overlap eller uenigheder, men disse udfordringer bør der tages fat
på i stedet for at lade f.eks. virksomheder alene med vurderingerne. Det
kunne f.eks. ske i den annoncerede pilotfase, hvor det er afgørende, at der
sker en bred inddragelse af virksomhedernes erfaringer
eks. i regi af
organisationer som Orgalime, BusinessEurope og DigitalEurope.
9.
Generelle forventninger til andre landes holdninger
På Konkurrenceevnerådsmødet den 18. februar 2019 blev der vedtaget
rådskonklusioner, der bakker op om den koordinerede plan for kunstig
intelligens offentliggjort af Kommissionen. Desuden har en række
medlemsstater fremlagt strategier der, ligesom regeringens nationale
10
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
2057099_0011.png
strategi for kunstig intelligens, fokuserer på at sætte mennesket i centrum
og på den måde sikre en ansvarlig anvendelse af kunstig intelligens.
På denne baggrund er det den generelle forventning, at medlemslandene
overvejende vil være positivt stemt overfor Kommissionens meddelelse.
10.
Regeringens foreløbige generelle holdning
Regeringen mener, at det digitale indre marked generelt bør kendetegnes
ved åbenhed overfor digital innovation og konkurrence. Der bør være fokus
på at sikre lave adgangsbarrierer for nye digitale virksomheder og gode
muligheder for at udvikle nye forretningsmodeller. Endvidere bør det sikres,
at der ikke indføres unødige byrder for erhvervslivet eller det offentlige i
forbindelse med bestræbelserne på at fremme det digitale indre marked.
Regeringen hilser på denne baggrund meddelelsen velkommen og er
positivt stemt over for Kommissionens fokus på at se udbredelsen af
ansvarlig og troværdig kunstig intelligens, som borgerne kan have tillid til,
og som således kan udgøre en potentiel konkurrencefordel for europæiske
virksomheder.
Regeringen ser gerne, at de etiske retningslinjer gøres mere operationelle og
er derfor positivt stemt overfor, at Kommissionen ønsker at gennemføre
pilottest af de etiske retningslinjer, med henblik på at sikre at de kan
omsættes til praksis af virksomheder og myndigheder. Regeringen lægger
vægt på, at relevante aktører, herunder både industrien, forskere, og
offentlige myndigheder, inddrages i pilotfasen, så arbejdet med
operationalisering afspejler anvendelsen af kunstig intelligens og forholdene
i de relevante sektorer og samtidig bygger på den relevante viden på
området.
Regeringen anbefaler desuden, i tråd med den danske ekspertgruppe for
dataetik, at retningslinjerne følges op af konkrete mekanismer til at skabe
transparens omkring virksomhedernes brug af kunstig intelligens og data,
fx i form af et europæisk dataetisk mærke eller at de største europæiske
virksomheder skal redegøre for deres dataetiske politik i forbindelse med
deres årsregnskab.
Væsentlig informationsasymmetri vil undergrave EU’s og regeringens
ambition om troværdig AI for borgerne. Derfor er fokus på transparens
positivt og en forudsætning for troværdig AI, herunder transparens i
forretningsmodeller.
Regeringen støtter derudover Kommissionens bestræbelser på at udbrede
den europæiske tilgang til kunstig intelligens globalt med henblik på at gøre
menneskecentreret kunstig intelligens til en international norm.
11
kom (2019) 0168 - Bilag 1: Grundnotat vedr. meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens
2057099_0012.png
Regeringen lægger vægt på, at konkrete initiativer til udmøntning af
handlingsplanen finansieres fuldt ud via omprioriteringer inden for EU’s
budget.
Endelig lægger regeringen vægt på, at drøftelser vedrørende
handlingsplanen og implementeringen heraf ikke foregriber
forhandlingerne om den kommende flerårige finansielle ramme (MFF)
for perioden 2021-2027, idet regeringens hovedprioritet for MFF-
forhandlingerne er at realisere et samlet udgiftsniveau svarende til 1,00
pct. af EU27's BNI.
11.
Tidligere forelæggelse for Folketingets Europaudvalg
Sagen har ikke tidligere været forelagt Folketingets Europaudvalg.
12