Menu luk

De etiske dilemmaer myldrer frem

Når det kommer til kunstig intelligens, kan en virksomhed vælge lige akkurat at gå til stregen, eller man kan bruge sit etiske kompas. ”Vi skal have en kultur omkring den måde, en virksomhed eller organisation behandler data på”, siger Gry Hasselbalch, medstifter af DataEthics.

1. jun. 2021
8 min

Hvad skete der i en skønhedskonkurrence, hvor en robotdommer skulle finde vinderen? Deltagerne med mørk hud blev rangeret langt lavere end personer med lys hud. Problemet var, at de data, der lå til grund for algoritmen, byggede på markant flest billeder af hvide mennesker.

Et ansigtsgenkendelsessoftware, der matchede en kriminel med en lovlydig borger, der måtte tilbringe en nat i fængslet, er et andet eksempel på, at intelligente teknologier langtfra er neutrale.

Teknologien åbner op for anvendelser, vi ikke tidligere har set, med spørgsmål og dilemmaer, vi ikke er forberedt på, siger ekspert i dataetik Gry Hasselbalch, der er medstifter af DataEthics og netop har afsluttet sin ph.d. på Københavns Universitet.

”Eksemplerne viser, at de bias, vi har, bliver reproduceret i måden, vi designer systemerne på”, siger Gry Hasselbalch, der arbejder med etik og data i forskning, design og politik.

Problemet er, at de selvlærende algoritmer bliver trænet af store mængder data fra den virkelige verden, ofte baseret på menneskelige beslutninger, og derfor kommer menneskelige fordomme, bias, ind i vores algoritmer.

Værdikompas

Derfor tvinger den kunstige intelligens os også til at genoverveje klassiske etiske udfordringer, som vi tidligere har klaret med dømmekraften. Men der findes ikke en facitliste hvad angår dataetik, fordi det kræver svar på spørgsmål og dilemmaer, der i høj grad defineres af menneskers individuelle holdninger, tolerancetærskler og indre etiske kompas.

”Vi skal have en kultur omkring den måde, en virksomhed eller organisation behandler data på”, siger Gry Hasselbalch og forklarer, at en dataetisk tilgang handler om at opfylde de principper og værdier, som menneskerettighederne og persondatalovgivningen bygger på.

”Et værdikompas tager os i en retning, hvor det er naturligt at tage aktiv stilling til, om vores dataanvendelse går imod menneskets og gruppers legitime interesser, og så handle derefter”.

Lige til stregen

Når det gælder personlige data, er der lovgivning omkring brugen. Der er sket en udvikling, ikke kun i Europa, men i hele verden, hvor vi alle sammen er blevet opmærksomme på, at der er nogle problemer med digitale data.

”Der er meget opmærksomhed på, at folk skal føle sig trygge ved den måde, en virksomhed eller en organisation behandler deres data på. Det kan få økonomisk betydning for ens virksomhed, hvis man er uforsigtig med data, fordi det har en indflydelse på ens brand og image, hvis man ikke er til at stole på”, siger Gry Hasselbalch og forklarer:

”Man kan tænke på etik som et værdikompas i forhold til måden, man designer datasystemer og overholder lovgivningen på. Når det gælder lovgivning, kan man vælge lige akkurat at gå til stregen, eller man kan vælge at leve op til de værdier, der er indeholdt i lovgivningen”.

Mænd fik længere kredit end kvinder

Hvordan kan virksomheder – herunder banker – integrere etiske principper i forretningen og efterleve dem i praksis, når algoritmerne kommer i arbejde?

I de seneste år har Søren Juul Jørgensen via sin forskning på Stanford University i Silicon Valley arbejdet med en række finansielle virksomheder i USA, Europa og Afrika om den svære dataetiske balancegang med fokus på sorte tal på bundlinjen. Nykredit og Spar Nord er med.

”Vi arbejder med gruppen af banker om, hvordan man integrerer etiske principper i forretningen og efterlever dem i praksis”, siger Søren Juul Jørgensen:

”Kernen er, at dataetik bliver indarbejdet i måden, man gør forretning på. Det drejer sig om etisk kompas og retning, og hvordan man omsætter det til forretningspraksis. Derfor er der dilemmaer som, om man vil overlade kreditvurderingen af private kunder til kunstig intelligens, hvis det giver en risiko for en indbygget, men usynlig diskrimination af nogle befolkningsgrupper”, forklarer Søren Juul Jørgensen og peger på eksemplet med Apples betalingskort, som diskriminerede mod kvinder ved at give mænd længere kredit.

Ordentlighed

Menneskelige fordomme, bias og fejlslutninger kodes ind i vores algoritmer.

Mens GDPR fastlægger ret klare regler for, hvordan virksomheder skal håndtere personoplysninger, siger Søren Juul Jørgensen, så kræver dataetik svar på spørgsmål og dilemmaer, der i høj grad defineres af menneskers individuelle holdninger og indre etiske kompas.

”Det, som ét menneske synes er ’ordentligt’, er ikke nødvendigvis ordentligt for andre”.

Så vi skal turde stille spørgsmål til grænserne for algoritmen, så vi kan begrænse de ubehagelige konsekvenser af bias. Blandt mange andre kendte eksempler på bias er de systemer, som det amerikanske fængselsvæsen brugte i vurderingen af ansøgninger om prøveløsladelse, som havde bias mod farvede.

I Danmark diskuterede man blandt andet etisk brug af data, da Gladsaxe Kommune ville krydse data om børn og familier for at sikre tidlig indsats over for socialt udsatte børn.

”Første lille skridt er, at vi er opmærksomme på, at datasystemer ikke på nogen måde er neutrale og matematiske”, siger Søren Juul Jørgensen.

Et af de danske pengeinstitutter, der er med i Stanford-projektet, er Spar Nord, der er optaget af, hvordan finansielle virksomheder kan håndtere brugen af ny teknologi som AI på en ansvarlig og etisk måde:

”Etisk ansvarlig brug af data er ikke nødvendigvis det samme som at være compliant og overholde regulativer. Det handler om mere”, siger forretningsudvikler i Spar Nord Mads Bønding og uddyber:

”Det handler om ordentlighed, og at kunderne kan have tillid til, at vi behandler deres data på en ansvarlig måde, uden at det begrænser vores mulighed for innovation og anvendelse af nye teknologier”.

Konkurrence og etik

En gennemarbejdet dataetisk politik kan blive næste afgørende adgangsbillet til markedet og et vigtigt konkurrenceparameter, i takt med at forbrugerne og kunderne har større forventninger om ordentlig dataetisk adfærd, mener Søren Juul Jørgensen:

”Transparens og ordentlighed er helt grundlæggende for, om du kan have tillid til, at der bliver passet ordentligt på de data, du afleverer, så de ikke bliver misbrugt”, siger han og sammenligner dataetik med befolkningens holdning til klima og miljø.

Ifølge Søren Juul Jørgensen handler etik om det, der er rigtigt at gøre, som ikke skader, og som er af værdi. En gennemarbejdet dataetisk politik kan blive et vigtigt konkurrenceparameter, mener han:

”Og den diskussion kan ikke klares i it-afdelingen, eftersom hele virksomhedens kultur og renommé er på spil, og alle må forholde sig til det, hvis virksomhedens databrug ender med at diskriminere visse grupper i samfundet”.

 ”Det drejer sig om ansvarlighed og transparens samt at kunne redegøre for de grundlæggende værdier, en virksomhed arbejder ud fra, når den bruger folks data”, siger Søren Juul Jørgensen og peger på, at store og børsnoterede danske virksomheder fra regnskabsåret 2021 skal redegøre for deres politik for dataetik i ledelsesberetningen eller på hjemmesiden.

Etiske dilemmaer

Der er enorm interesse for at tænke etik ind i brugen af kunstig intelligens.

For at hjælpe virksomhederne til en kultur, hvor man kan være innovativ og begå fejl og samtidig tænke sig om, har Søren Juul Jørgensen på Stanford startet et projekt, hvor 70 ph.d.- og masterstuderende fra 25 lande sammen med 12 internationale banker ser på etiske dilemmaer med henblik på en læringsplatform, som virksomhederne kan bruge til at afklare deres etiske kompas:

”Diversitet er i stigende grad vigtigt, og vi vil sammen med en gruppe studerende fra bogstaveligt talt hele verden undersøge risici og etiske dilemmaer ved brug af data og teknologi i den finansielle sektor. Meningen er at skabe grundlag for læring og bedre forståelse af risici som grundlag for udbredelse af ansvarlig kultur i virksomhederne“, siger Søren Juul Jørgensen. 

Overvågning

Det var især, da den amerikanske professor Shoshana Zuboff i 2019 kom med sit kæmpeværk ”Overvågningskapitalismens tidsalder”, at det blev klart, at digitaliseringen og algoritmer er samfundsomvæltende i negativ betydning.

Og som den første i verden har EU-Kommissionens næstformand, Margrethe Vestager, netop foreslået faste rammer for, hvad kunstig intelligens fremover kan og må bruges til. Bruger man for eksempel teknologien til at sortere jobansøgninger eller kreditvurdering, skal man kunne bevise, at den arbejder præcist og retfærdigt.

Ifølge Gry Hasselbalch er der en stigende bevidsthed om at beskytte borgere mod at blive ramt af vilkårlige beslutninger - truffet af en algoritme:

”Vi har nogle velfærdsværdier, som bygger på solidaritet og beskyttelse af det enkelte menneske over for systemet. De værdier skal gentænkes i digitaliseringen”.

De samme etiske overvejelser gælder alle former for intelligente softwaresystemer som for eksempel chatbots, kunstige SoMe-profiler og softwarerobotter – også over for medarbejderne.

”Der er mange relevante anvendelsesmuligheder for kunstig intelligens og data på arbejdspladsen, og som kræver de samme etiske overvejelser og diskussioner”, siger Søren Juul Jørgensen og minder om, at Amazon forsøgte sig med kunstig intelligens til rekruttering, men måtte droppe systemet på grund af bias.

Man kan for eksempel forestille sig, at brug af data og kunstig intelligens kan være nyttig i forhold til at sætte ind over for stress, men det vil jo hurtigt kunne udløse frygt for overvågning.

Ambitiøs dataetik

Aktuelt viser arbejdsforholdene hos Nemlig.com, hvad der sker, når avancerede digitale systemer overtager kontrollen i virksomheder. En digital arbejdsgiver sover aldrig og er hele tiden på jagt efter at fjerne spildtid.

I takt med at digitale systemer bliver installeret på moderne finansielle arbejdspladser, får det både kulturelle og organisatoriske konsekvenser, som vi kun kan skimte konturerne af lige nu.

”Det er ikke kun et spørgsmål om, at intelligente maskiner overtager styringen, det er også spørgsmål om udviklingen af vores arbejdsliv”, siger næstformand i Finansforbundet Steen Lund Olsen og peger på, at der i relationen mellem virksomhed og de ansatte er behov for øget dataetisk opmærksomhed, når det drejer sig om overvågning, diskriminering, effektivisering og rekruttering.

Med ny teknologi følger også et stort ansvar på HR-området, hvor nye People Analytics-værktøjer udvikles i hastigt tempo. Teknologierne skal anvendes til konstruktive formål – og ikke til øget kontrol og overvågning af ansatte, siger Steen Lund Olsen og opfordrer virksomhederne til at have et dataetisk kodeks:

”Virksomheden skal sikre, at de data, der indsamles på finansansatte, bliver håndteret ansvarligt og efter dataetiske retningslinjer”.

Syv trin for kunstig intelligens med mennesket i centrum

En ekspertgruppe med deltagelse af Gry Hasselbalch nedsat af EU-Kommissionen kom i 2019 med syv trin for kunstig intelligens med mennesket i centrum:

  1. Menneskelig udførelse og kontrol; 2. Teknisk robusthed og sikkerhed; 3. Overholdelse af privatlivets fred og datastyring; 4. Gennemsigtighed; 5. Diversitet, ikkediskrimination og retfærdighed; 6. Miljø- og samfundsmæssig velfærd; 7. Ansvarlighed.

Seneste nyt