Nyt AI-kodeks klar om få uger
EU og USA er på vej med et udkast til etiske retningslinjer for kunstig intelligens.
EU og USA er meget tæt på at være enige om et sæt frivillige minimumsstandarder og etiske retningslinjer for kunstig intelligens, inden ny AI-lovgivning kan nå at træde i kraft.
Det fortæller EU-Kommissionens næstformand Magrethe Vestager.
”Alle ved, at det her er den næste kraftfulde ting. Så inden for de næste uger vil vi komme med et udkast til etiske retningslinjer for kunstig intelligens.”
Det skriver Ritzau.
Den danske toppolitikers udmelding sker efter et møde med USA’s udenrigsminister, Antony Blinken, i Luleå i Sverige seneste uge.
På forhandlingsbordet er et sæt standarder for anvendelse af kunstig intelligens. Det skal bygge bro, forud for at lovgivning på området kan formuleres og sættes i kraft, hvilket kan tage flere år.
Virksomheder og stater vil kunne tilslutte sig de retningslinjerne frivilligt.
Ifølge Techcrunch beskrev Magrethe Vestager generativ kunstig intelligens som en "seismisk ændring" og "kategorisk skift", der kræver et regulatorisk svar omgående.
Margrethe Vestager, EU-Kommissionens næstformand. Foto: Jennifer Jacquemart
AI-lov først på plads om flere år
Det ansvarlige AI-adfærdskodeks udarbejdes i al hast samtidig med, at EU er i gang med at brygge en omfattende AI-lovgivning sammen.
Lovgivning er for alvor blevet presserende efter, at ChatGPT buldrede igennem den digitale lydmur i november 2022. Det har skudt et kapløb i gang blandt myndigheder verden over om at få kontrol med den hastige udvikling.
I EU blev lovgivningsprocessen presset og måtte ændres for også at dække ChatGPT og lignende nye AI-værktøjer. Senest vedtog Europa-Parlamentet så i midten af maj sin holdning til en kommende lovgivning, AI Act.
Der er dog stadig et stykke vej, cirka to til tre år, før lovgivning kan slå igennem, hvorfor der altså ifølge EU har været behov for et sæt etiske retningslinjer i den mellemliggende periode.
Her er de foreløbige overskrifter i EU’s bud på ny AI-lov
- Risikobaseret tilgang til regulering af AI, hvor forpligtelserne for et system er proportionale med den risiko, det udgør
- Anvendelse af AI kategoriseres i fire risikoniveauer: uacceptabel risiko, høj risiko, begrænset risiko og minimal eller ingen risiko
- Uacceptabel risiko bliver forbudt som standard og vil ikke kunne implementeres i EU
- Brugen af AI til fx rekruttering betragtes som høj-risiko. Her skal virksomhederne leve op til nogle skrappe krav til fx at sikre menneskelig overvågning og nøjagtighed
- Specificerer krav til udbydere af såkaldte "foundation modeller" som ChatGPT.
Brug af AI i den finansielle sektor
Brugen af kunstig intelligens er i bred forstand støt stigende, herunder i den finansielle sektor, hvor AI især gør sig relevant i forhold til de store mængder data. Samtidig er tillid og robusthed nøglebegreber i den finansielle sektor, som uagtet ny teknologi skal opretholdes.
Som led i at identificere og håndtere de potentielle risici ved øget brug af kunstig intelligens har Finansforbundet tidligere afgivet høringssvar til spørgsmålet om et EU-initiativ til en fælles tilgang til brugen af kunstig intelligens.
Det har blandt andet været vigtigt for Finansforbundet, at AI-værktøjer, der ofte er udviklet udenfor EU, overholder danske og europæiske værdier, og at der er transparens i anvendelsen overfor borgere og medarbejdere.
Den danske finansielle sektor er også selv i gang med at udarbejde en god praksis for dataetik ved brug af AI. Finanstilsynet udsendte i maj et udkast til den praksis i høring. Det har en række organisationer, herunder Finansforbundet, mulighed for at kommentere ind til 27. juni.
Du kan finde udkastet her:
God praksis: Dataetik ved brug af AI i den finansielle sektor.
Sammen om dataetik
I et digitaliseret samfund gemmes flere tusinde dataspor hver eneste dag. Hvordan skaber vi gennemsigtighed omkring, hvilke data der gemmes på arbejdspladsen? Og hvad disse data bruges til? Få viden og inspiration her.
Læs mere