Menu luk

Sådan forholder datacentraler sig til ansattes brug af ChatGPT

Flere datacentraler er i fuld gange med at fastlægge, hvordan ChatGPT kan udnyttes. Men der er også betydelige sikkerhedsrisici, der skal håndteres, inden det kan slippes løs blandt medarbejderne, lyder det i en rundspørge, foretaget af Finansforbundet.

1. maj 2023
5 min

De tre danske datacentraler Bankdata, BEC og SDC er alle i fuld færd med at se nærmere på, hvordan ChatGPT og andre AI-baserede værktøjer kan udnyttes.

Men det står klart, at der er nødt til at være klare retningslinjer for teknologien, og hvordan de ansatte bruger den. 

Sådan lyder meldingen til Finansforbundet, der har foretaget en rundspørge om, hvordan datacentralerne forholder sig til ChatGPT. 

Overordnet er alle positive, men teknologien og kunstig intelligens skal anvendes forsvarligt, lyder det fra de tre datacentraler.

"Brug af teknologien vil dog kræve helt klare retningslinjer indeholdende nødvendige procedurer og kontroller samt mekanismer, der proaktivt sikrer, at retningslinjerne overholdes." lyder det eksempelvis fra SDC’s Sille Stener, der er area director i digital channels, OI & MarCom.

Minder om Google Translate

Retningslinjerne for brugen af værktøjerne skal på plads, efter at kunstig intelligens med navnlig lanceringen af sprogmodellen ChatGPT, som nåede over 100 millioner brugere på få måneder, er blevet voldsomt udbredt og lettilgængelige at benytte.

Og der er markante potentialer i udsigt, også i den finansielle it-verden.

AI-værktøjerne er ikke blot født uden en skriveblokade, men kan fx også forestilles at kunne bruges som interne eller eksterne chatbots, tjekke kode i systemer igennem, diagnosticere tekniske problemer eller analysere kundedata.

Men man skal passe på med at slippe værktøjerne løs uden regulering og retningslinjer. De rummer nemlig betydelige risici, som skal håndteres, lyder det enstemmigt fra de tre datacentraler.

"På en måde minder det om Google Translate, hvor vi har sagt til vores medarbejdere, at de skal være meget restriktive med, hvilke oplysninger de bruger Google Translate til at oversætte," lyder det fra viceadministrerende direktør hos BEC, Lars Malmberg.

Hos SDC fremhæves det, at der er en række betydelige sikkerhedsrisici og complianceovervejelser, der skal tages højde for.

"Eventuel brug af denne form for teknologi kræver derfor, at sikkerheds- og privatlivsrisici nøje overvejes og at der implementeres kontroller og procedurer for at beskytte følsomme oplysninger og overholde reguleringskrav," fortæller Sille Stener fra SDC. 

Fra Bankdata pointerer direktør for digital banking, Martin Stampe, at man er meget opmærksom på, at AI-værktøjerne styrer uden om GDPR eller andre personlige eller følsomme data. Samtidig kan der også være udfordringer i forhold til bias og potentielt falske resultater og svar i værktøjerne, fortæller han.

"Det er derfor både vigtigt at have det sikkerhedsmæssige aspekt for øje og også de etiske og anvendelsesmæssige aspekter. Kundernes data er dog det vigtigste i denne sammenhæng," lyder det fra Martin Stampe.

"Vi tror ikke, at teknologien kommer til at erstatte medarbejdere, men det kommer til at ændre måden, vi arbejder på."
- Martin Stampe, direktør for digital banking hos Bankdata.

Medarbejdere kom til at lække følsomme oplysninger

Mens de tre datacentraler er i gang med at få styr på, hvordan ChatGPT og andre lignende værktøjer kan benyttes, er det gået galt med brugen andre steder.

Man skal nemlig passe lidt på med, hvad man putter ind af data i de offentligt tilgængelige AI-værktøjer. Det kan et par medarbejdere fra Samsung i hvert fald skrive under på.

I begyndelsen af april kom det frem, at flere ansatte fra Samsung ufrivilligt var kommet til at lække fortrolige data via ChatGPT.

Kildekoden til et nyt program, interne mødenotater og andet hemmeligt data blev indtastet, og er som sådan i dag i hænderne hos virksomheden bag ChatGPT, OpenAI.

Flere problemer med ChatGPT

En anden væsentlig problematik er omkring ophavsret. For hvem har egentlig ophavsretten til det, der kommer ud af AI-værktøjer, der indhenter information og data fra mange forskellige åbne kilder.

Hvem har ejerskabet til en kode, sang, billede eller tekst, som er skabt i samarbejde med et AI-værktøj?

Bankdata, BEC og SDC gør det i den sammenhæng alle klart, at ChatGPT for nuværende betragtes som en åben og ikke sikker platform, hvor hverken kundeoplysninger eller intern kode eller viden skal deles.  

Lars Malmberg fra BEC fortæller eksempelvis, at mens der er store perspektiver i at accelerere softwareudvikling og test med kunstig intelligens, er det nødt til at ske i et sikkert univers og med en vished om, hvorvidt man overtræder andres immaterielle rettigheder.

"Vi deler under ingen omstændigheder viden uden for de systemer, der er sikkerhedsgodkendt i BEC. Deraf følger selvfølgelig også, at man ikke må overføre nogen form for intern kode eller anden fortrolig viden til ChatGPT."

Kunstig intelligens på vej ind i finanssektoren

Selvom ChatGPT og andre nye AI-værktøjer rummer betydelige sikkerhedsrisici, der skal håndteres, er de tre datacentraler alle enige om, at teknologien åbner op for en række interessante perspektiver.

Hos SDC lyder meldingen, at AI-teknologier som ChatGPT er kommet for at blive, og rummer så mange potentielle gevinster, at der skal findes en løsning.

"Så overordnet er vi positive, og vi er i fuld gang med at undersøge mulighederne… men det er med stor respekt for de udfordringer, teknologien kan medføre," lyder det fra Sille Stener.

Hun fortæller, at SDC lige nu kigger på en mulig løsning i form af en såkaldt privat ChatGPT-instans på et lukket isoleret netværk.

Lars Malmberg fra BEC er heller ikke i tvivl om, at kunstig intelligens kommer til at udgøre en større del af teknologilandskabet, også i den finansielle sektor.

"Det kan for eksempel være inden for business intelligence, direkte i Office-produkterne, inden for investeringsrådgiving eller inden for hvidvaskbekæmpelse til at finde mistænkelige mønstre i et komplekst transaktionslandskab," forudser han og tilføjer:

"Vi har en super interessant opgave i de kommende år med at sørge for, at vi bygger kunstig intelligens ind i et univers, hvor vi har 100 procent styr på sikkerhed og compliance."

Ændrer måden, vi arbejder på

Martin Stampe fra Bankdata gør det klart, at hele kategorien med såkaldt generative AI og store sprogmodeller ”er ekstremt spændende," og noget som Bankdata har kigget på i flere år.

Lige nu arbejder Bankdata på at give alle medarbejdere en betalt licens til ChatGPT, når der er blevet defineret nogle "helt klare retningslinjer".

Martin Stampe mener samtidig, at alle kommer til at anvende kunstig intelligens på sigt.

"Det kommer til at påvirke måden, vi udvikler it på, og hvordan vores ejere tilbyder services og giver rådgivning på. Vi tror ikke, at teknologien kommer til at erstatte medarbejdere, men det kommer til at ændre måden, vi arbejder på," lyder det fra Martin Stampe, der slutter:

"Vi opfordrer medarbejderne til at være nysgerrige og holde sig ajour med nye teknologier – det, mener vi, er en afgørende kompetence i en tech-virksomhed."

I en stor undersøgelse fra OECD fremgår det, at gevinsterne ved kunstig intelligens styrkes markant, hvis medarbejderne tages med på råd om teknologien. 

Det kan du læse mere om her.

Sammen om dataetik

I et digitaliseret samfund gemmes flere tusinde dataspor hver eneste dag. Hvordan skaber vi gennemsigtighed omkring, hvilke data der gemmes på arbejdspladsen? Og hvad disse data bruges til? Få viden og inspiration her.

Læs mere

Seneste nyt