Menu luk

Finansforbundet støtter europæisk tilgang til AI

Finansforbundet har afgivet høringssvar til spørgsmålet om et EU-initiativ til en fælles tilgang til brugen af kunstig intelligens. Meget AI-software, der anvendes af danske og andre europæiske virksomheder, er udviklet i lande udenfor EU. Det kræver fokus på overholdelse af danske og europæiske værdier. Transparens i anvendelsen af ethvert AI-værktøj over for borgere og medarbejdere er vigtigt.

10. maj 2021
Af Jesper Bo Nielsen
jn@finansforbundet.dk

Det er vigtigt, at der tages afsæt i europæiske værdier og beskyttelse af borgerne, herunder bl.a. arbejdstagerne. Herunder er det vigtigt, at regler og kodekser tilsiger både, hvad AI-værktøjerne må bruges til, og navnlig hvad de ikke må bruges til. Meget AI-software, der anvendes af danske og andre europæiske virksomheder, er udviklet i lande udenfor EU. Det sætter ekstra fokus på krav om overholdelse af danske og europæiske værdier. Transparens i anvendelsen af ethvert AI-værktøj over for borgere og medarbejdere er vigtigt.

Virksomhederne bør følge et forklaringsprincip og redegøre for de beslutninger, der træffes af algoritmer. Ansvaret ligger entydigt hos ledelsen, hvis der træffes fejlagtige beslutninger ud fra algoritmens beregninger. Med ny teknologi følger også et stort ansvar for virksomhederne på HR-området, hvor nye People Analytics værktøjer udvikles i hastigt tempo. Teknologierne skal anvendes til konstruktive formål – og ikke til øget kontrol og overvågning af ansatte. Hvis virksomheden gør aktivt brug af værktøjerne, skal alle medarbejdere grundigt orienteres om værktøjernes anvendelsesmuligheder.

Vi lægger vægt på at:

  • at demokratiske processer og fundamentale rettigheder altid har forrang og beskyttes og opretholdes
  • at diversitet og mangfoldighed sikres ved undgåelse af systemisk diskrimination eller bias i AI-algoritmer
  • at der ikke sker en ”dehumanisering” af beslutningsprocesser – f.eks:
    • at den sociale dialog på arbejdspladser tager udgangspunkt i algoritmisk udviklede datagrundlag og ikke menneskestyrede dialoger
    • at medarbejderbeskyttelse svækkes på basis af algoritmisk udviklede datagrundlag
    • at medarbejdere ledes og evalueres (performance management) udelukkende på basis af algoritmisk udviklede datagrundlag
  • at der er transparens i forhold til hvilke - og hvornår - AI-data og algoritmer bruges i beslutningsprocesser på arbejdspladser (rekruttering, uddannelse, karriere)
  • at borgere beskyttes mod ugennemsigtig samkøring af data
  • at princippet om beskyttelse af personers privatliv står forrest i designprocessen og udviklingen af AI-algoritmer

Læs det fulde høringssvar 

Find Finansforbundets politik for dataetik

Kontakt

32 66 14 74

Jesper Bo Nielsen

Chief Regulatory Officer

jn@finansforbundet.dk