Når en teknologi med så stor indflydelse som generativ AI kommer på banen, er det vigtigt at tage stilling til den som virksomhed. Generativ AI kan ændre den måde, dine medarbejdere arbejder og tænker på, og den er sandsynligvis allerede udbredt i din virksomhed - måske uden at du selv er klar over det. Listen over fordele er lang, men generativ AI er ikke uden risici. Ved at skabe en virksomhedspolitik, der regulerer brugen af generativ AI, kan du anvende teknologiens fulde potentiale - og samtidig minimere de potentielle risici.

I denne artikel gennemgår vi nogle af de største risici ved generativ AI, hvordan en politik kan hjælpe med at reducere dem, og hvordan processen med at skabe en virksomhedspolitik for brugen af generativ AI kunne se ud i din virksomhed. Det skal ikke ses som juridisk rådgivning, men det er baseret på vores egne erfaringer med generative AI-værktøjer og vil forhåbentlig danne grundlag for yderligere undersøgelse.

Download vores skabelon til udarbejdelse af en virksomhedspolitik for generativ AI

Download vores skabelon til udarbejdelse af en virksomhedspolitik for generativ AI

download skabelon

hvorfor skabe en virksomhedspolitik for generativ AI?

Din virksomhed bør have en politik for generativ AI af samme grund som alle andre politikker - for at sikre overholdelse, for at vejlede medarbejderne i deres arbejde og for at strømline den daglige drift. 

Generative AI-værktøjer, der kan generere tekst-, billed-, lyd- og endda videoindhold ud fra nogle få enkle beskeder, har overbevisende anvendelsesmuligheder i hele din virksomhed. Med det udvalg af værktøjer, der findes, og den hastighed, hvormed de vokser, risikerer din virksomhed at tabe terræn til konkurrenterne, hvis den ikke undersøger, hvordan den kan drage fordel af disse værktøjer.

Men for at medarbejderne trygt kan foretage disse undersøgelser, og for at virksomheden kan undgå de velkendte risici ved generativ AI, bør du have en virksomhedspolitik for anvendelsen på plads. Den viser, at din virksomhed har brugt tid på at tænke over konsekvenserne af generativ AI og giver medarbejderne klare regler at holde sig til, når de eksperimenterer - så de sikkert kan høste fordelene ved de mange generative AI-værktøjer, der er til rådighed. 

Lad os se på nogle af de vigtigste risici, som din politik for AI bør forsøge at afbøde.

risikoen ved generativ AI

Uretfærdighed, bias og uetisk adfærd i AI-værktøjer

Generative AI-værktøjer er kun så objektive som de data, de er "trænet" på. Hvis de datasæt, et værktøj bruger til at skabe indhold, er forudindtagede, vil værktøjets output også være forudindtaget. Forestil dig f.eks. et generativt AI-værktøj, der er designet til at generere jobbeskrivelser baseret på nogle få grundlæggende detaljer om jobbet. Hvis værktøjet er blevet trænet på tusindvis af jobbeskrivelser, som indeholder ikke-inkluderende sprog, vil de jobbeskrivelser, det genererer, gøre det samme. På den måde er det nemt for AI-værktøjer blot at reproducere deres skaberes eller brugeres fordomme. 

De store AI-udviklere gør en indsats for at undgå bias i deres værktøjer, men det er en alvorlig udfordring at udrydde det helt. Din generative AI-politik bør anerkende denne begrænsning og specificere foranstaltninger til at overvinde den - f.eks. ved at kræve, at alt AI-genereret indhold kontrolleres grundigt af et menneske for bias og retfærdighed, før det offentliggøres eller distribueres.

Womale putting away files while sitting at her desk in her home office.
Womale putting away files while sitting at her desk in her home office.

Overtrædelser af immaterielle rettigheder

Denne risiko er også et resultat af den måde, generative AI-modeller er opbygget på. Ved at lade sig påvirke af de millioner af billed-, musik-, video- og tekstdata, som de trænes på, kan de producere helt unikke kreationer - men der er en risiko for, at væsentlige elementer af disse træningsdata indgår i det genererede indhold, hvilket skaber potentielle problemer med immaterielle rettigheder.

Debatten om, hvorvidt AI-genereret indhold krænker de oprindelige skaberes rettigheder, er i gangværende, og nogle organisationer kræver, at skaberne skal give deres samtykke, før deres værker kan bruges til at træne AI-modeller. Andre softwarevirksomheder fokuserer på generative AI-værktøjer, der er "sikre til kommerciel brug", og som kun trænes på indhold med fuld licens. Spørgsmålet om, hvorvidt AI-genereret indhold kan være ophavsretligt beskyttet, varierer i forskellige jurisdiktioner, men svaret er vigtigt for virksomheder, der overvejer at bruge denne form for indhold i deres kommunikation.

De juridiske beslutninger, som din generative AI-politik afspejler, vil variere, men politikken bør sigte mod at reducere risikoen for problemer med immaterielle rettigheder - potentielt ved at foreskrive, at AI-genereret indhold ikke kan bruges eksternt i virksomhedens kommunikation.

Beskyttelse af data

Fortroligheden af data, der deles med generative AI-værktøjer, har været et diskussionsemne, siden de kom på markedet. Det er kendt, at en del af grunden til, at mange af disse AI-modeller forbedres så hurtigt, er, at de anvender brugerfeedback og input til at finjustere deres svar og udvide deres viden.

Men forestil dig et tilfælde, hvor en HR-specialist overdrager følsomme data som en liste over jobansøgere til en AI-chatbot og beder den om at gruppere dem i kategorier baseret på deres erfaringsniveau. Hvis chatbotten bruger brugerinput til at forbedre nøjagtigheden af sine svar, advarer nogle sikkerhedseksperter om, at der er en risiko for, at disse følsomme data kan blive eksponeret for andre brugere, der ved, hvordan man stiller de rigtige spørgsmål.

Dette er et ekstremt tilfælde, men det illustrerer nogle af de ubesvarede spørgsmål om generativ AI og databeskyttelse. Mange AI-værktøjer siger klart og tydeligt, at de ikke eksponerer brugerinput for andre brugere - men det er ikke en universel politik.

Privatlivets fred bør være en vigtig del af din politik for generativ AI. Din virksomhed skal beslutte detaljerne, men det kan være en god start at specificere, at ingen data relateret til enkeltpersoner eller forretningsaktiviteter må overdrages til generative AI-værktøjer via prompter.

Ud over disse risici bør din politik også tage højde for de generelle sikkerheds- og compliancerisici, der følger med brugen af tredjepartsværktøjer til forretningsformål - samt den skade på omdømmet, som utilsigtede immaterielle rettighedskrænkelser, datalækager eller partisk indhold kan medføre.

Download vores skabelon til udarbejdelse af en virksomhedspolitik for generativ AI

Download vores skabelon til udarbejdelse af en virksomhedspolitik for generativ AI

download skabelon

skab din virksomheds generative AI-politik

Saml dine eksperter

Ud over ekspertise inden for jura og privatliv kræver en effektiv politik for generativ AI også input fra de mennesker, der bruger den - uanset om de er i marketing, IT, HR eller salg. De har den bedste indsigt i, hvordan generativ AI bruges i virksomheden, og de potentielle risici ved teknologien, der kan opstå inden for deres anvendelsesområder.

Spred budskabet

Det kan være svært at lave en AI-politik, men det er en endnu større udfordring at sikre, at medarbejderne anerkender og accepterer den. Heldigvis viser de fleste undersøgelser og rapporter, herunder Randstads Workmonitor, at medarbejdere på verdensplan er begejstrede for AI's potentiale på arbejdspladsen - så det kan være nemmere, end du tror, at implementere politikken gennem effektiv intern kommunikation, uddannelse og dialog. Som med enhver anden politik er det vigtigt at håndhæve den gennem dine sædvanlige kanaler - men det er bedre at forebygge overtrædelser ved at engagere medarbejderne omkring politikken og generativ AI generelt.

Sørg for, at der er plads til innovation

Din politik er et vigtigt redskab til at beskytte dig mod de potentielle risici ved generativ AI. Men den bør ikke være så regid, at den gør det unødigt svært at bruge generativ AI. Generativ AI har et stort potentiale på tværs af din virksomhed, så det ville være den forkerte vej at gå at gøre medarbejderne tilbageholdende med at bruge det med en alt for restriktiv politik. Fokuser i stedet på at forebygge de mest alvorlige risici i politikken, og brug uddannelse og kommunikation til at vise medarbejderne, hvor vigtig ansvarlig brug af AI er.

Hvor lang tid tager det at skabe en generativ AI-politik?

Din generative AI-politik behøver ikke at være særlig lang for at være effektiv, men den tid, det tager at udarbejde den, afhænger helt af din organisations særlige forhold. Antallet af personer, der er involveret i processen, følsomheden af dine generative AI use cases og størrelsen af din organisation vil alt sammen have en effekt.

Det er dog muligt at fremskynde processen ved at anvende en skabelon til udarbejdelsen. Download vores skabelon for at få et forslag til den grundlæggende struktur i din politik sammen med tips og vejledning til, hvad du bør overveje under processen med at skabe politikken. 

Download vores skabelon til udarbejdelse af en virksomhedspolitik for generativ AI

Download vores skabelon til udarbejdelse af en virksomhedspolitik for generativ AI

download skabelon
om eksperten
author lars kjaerulf
author lars kjaerulf

Lars Kjærulf

director, operational talent solutions

Lars er overordnet ansvarlig for Randstad Operational Talent Solutions og Randstad Inhouse Services i Danmark. Lars har en stærk forståelse for virksomheders HR-udfordringer og begrænsninger og bidrager med sine mange års erfaring indenfor bemandingsløsninger, personaleoptimeringer og procesoptimering til at skabe værdi for vores kunder med behov for en stor fleksibel arbejdsstyrke.

hold dig opdateret om de seneste nyheder, trends og tendenser om rekruttering og arbejdsmarkedet.

tilmeld