Den moderne revolution inden for kunstig intelligens (AI) har stille og roligt ulmet i over et årti, men det er først for nylig, at meget avancerede AI-værktøjer er blevet let tilgængelige for ikke-tekniske brugere.
Generative AI-værktøjer, der ved hjælp af enkle instruktioner kan generere imponerende tekst- eller billedindhold, har virkelig fået et gennembrud. De er allerede en standarddel af den moderne medarbejders værktøjskasse til at brainstorme ideer, skabe hurtige visualiseringer og få øjeblikkelig feedback fra en digital kollega.
Kunstig intelligens, der ikke er designet til at generere nye data eller indhold på egen hånd (ikke-generativ AI) har også øget kapaciteten af eksisterende digitale værktøjer, hvilket giver fagfolk mulighed for at bruge dens kapacitet til at spotte mønstre og forstå uformaterede data for at forbedre deres arbejdsprocesser.
AI er et kraftfuldt værktøj - men stor magt kommer med stort ansvar. Begrænsningerne og risiciene ved AI er veldokumenterede, lige fra bekymringer om immaterielle rettigheder med generative AI-værktøjer til fejlbehæftede tankemønstre, der forstærker almindelige menneskelige fordomme og forudindtagethed.
Download: Hent flowchart til identifikation af ansvarlig brug af kunstig intelligens
download flowchartAf den grund stræber virksomheder, der bruger og udvikler AI-værktøjer, efter ansvarlig og etisk anvendelse af kunstig intelligens. Det er en tankegang, der sigter mod at udvikle de gavnlige formål med AI og gøre dem tilgængelige for flere mennesker, samtidig med at der tages skridt til at mindske de alvorlige risici, det skaber.
AI-værktøjer forsvinder ikke, og i fremtiden vil de være endnu mere avancerede og udbredte end i dag. Så det er vigtigt, at alle virksomheder begynder at tænke over, hvordan ansvarlig og etisk anvendelse af AI kan sikres i organisationen. Denne artikel skal ikke ses som juridisk eller compliance-rådgivning, men den vil hjælpe dig med at forstå, hvad ansvarlig AI betyder i praksis, og hvordan du kan opmuntre til ansvarlig brug af kunstig intelligens i din virksomhed.
hvad er ansvarlig brug AI?
Selvom de grundlæggende principper er de samme, varierer definitionen af “responsible AI”. Google, som investerer kraftigt i sine egne AI-værktøjer definerer det på denne måde:
“Responsible AI considers the societal impact of the development and scale of [AI] technologies, including potential harms and benefits.”
I alt deres AI-arbejde sigter de efter at være ansvarlige ved altid at fokusere på retfærdighed, ansvarlighed, sikkerhed og privatliv. Microsoft, en anden stor drivkraft i AI-transformationen, definerer ansvarlige AI-systemer som: “fair, reliable and safe, private and secure, inclusive, transparent and accountable.”
Din virksomheds præcise definition af ansvarlig brug af AI kan være lidt anderledes. Men den grundlæggende betydning vil være den samme - AI, der bruges på en etisk, lovlig, positiv og inkluderende måde. Det betyder, at man bruger AI til at supplere og forbedre menneskelige evner, samtidig med at man reducerer indflydelsen fra almindelige menneskelige bias, snarere end at bruge det til helt at erstatte mennesker.
Indenfor HR kunne et eksempel på ansvarlig anvendelse være at bruge en AI-chatbot til at scanne og tilpasse jobbeskrivelser for at undgå ikke-inklusivt sprog. Men Amazons fejlbehæftede AI-rekrutteringsværktøj, som virksomheden stoppede med at bruge efter at have opdaget, at det var forudindtaget over for kvindelige kandidater, er ikke et godt eksempel.
sådan sikrer du ansvarlig brug af AI i din virksomhed
Afhængigt af din virksomhed og din virksomheds tidligere erfaring med AI er der flere måder at skabe en fælles forståelse af, hvad ansvarlig brug af kunstig intelligens er, og omsætte det til praksis i hele virksomheden. Men de fleste virksomheder, der allerede har succes, gør det på en eller flere af disse måder:
træning i ansvarlig brug af AI
Det er usandsynligt, at du ville indføre et vigtigt nyt værktøj som et CRM- eller ATS-system uden at give medarbejderne ordentlig træning. Så når en ny teknologi som AI begynder at sive ind i alle dele af din virksomhed, er det lige så vigtigt at sørge for, at dit team ved, hvordan det skal bruges korrekt og ansvarligt.
Siden brugervenlige generative AI-værktøjer blev mainstream, er hypen kun eskaleret. Uerfarne AI-brugere ser måske disse værktøjer som udelukkende positive og risikofrie og overser de potentielle risici - såsom datasikkerhedsproblemer, brud på intellektuel ejendomsret og uretfærdighed og bias forårsaget af bl.a. træningsdata af dårlig kvalitet.
Undervisning er en mulighed for at aflive myterne om AI og informere kolleger om teknologiens ulemper og begrænsninger. Når de har alle fakta, vil de være i stand til at udnytte AI's fordele og samtidig undgå de mest alvorlige farer.
Uddannelse og træning er også efterspurgt af medarbejderne i dag. I Randstads Workmonitor-undersøgelse af over 27.000 medarbejdere over hele verden stod AI øverst på listen over færdigheder, som respondenterne ønskede at udvikle. En PwC-undersøgelse blandt over 54.000 medarbejdere havde lignende resultater og viste en overvejende positiv holdning til AI på arbejdspladsen blandt respondenterne. Ved at uddanne medarbejderne i vigtige AI-færdigheder og i, hvordan man bruger teknologien som et nyttigt værktøj, kan man gøre dem til sikre og effektive AI-brugere og imødekomme deres behov for viden.
overvåg brugen af AI og inddrag medarbejderne
Igen, du ville ikke indføre et stort nyt værktøj som et CRM-system i organisationen og så aldrig følge op på, hvordan det bliver brugt. For at sikre succes ville de teams, der arbejder med værktøjet, løbende justere deres processer og udforske nye funktioner for at finde ud af, hvad der virker, og sikre, at værktøjet ikke bruges forkert. Din organisation bør gøre det samme med sine AI-værktøjer for at sikre ansvarlig brug.
På et operationelt niveau hjælper det med at opbygge ekspertise og skabe ansvarlighed at udpege specifikke medarbejdere som "ejere" af AI-værktøjerne. Ved at sikre, at disse ejere er fortrolige med ansvarlige AI-principper, kan de også vurdere nye brugsscenarier og forhindre uovervåget brug af AI-værktøjer i nye områder af virksomheden.
På et højere niveau kan regelmæssige undersøgelser hjælpe virksomhedens ledelse med at forstå, hvordan AI bruges i organisationen, og hvordan det spredes over tid - hvilket sikrer, at du ikke bliver overrasket, hvis potentielle AI-problemer skulle dukke op.
Kort sagt bør nye AI-værktøjer ikke implementeres uden opfølgning. I stedet skal medarbejderne forstå vigtigheden af at tænke kritisk over deres brug af AI og arbejde på at forbedre og udvikle deres brug af værktøjerne over tid.
klar, ansvarlig AI-politik og kontrol
At have klare procedurer for anvendelsen af AI på plads og en fælles definition af ansvarlig AI er en af de vigtigste foranstaltninger. Hver persons opfattelse af "ansvarlig" kan være forskellig, og en defineret AI-politik, der er godkendt af virksomhedens ledelse og distribueret til alle kolleger, giver alle samme afsæt. Det giver medarbejderne noget at falde tilbage på, hvis de ikke er 100 % sikre på, at deres planlagte brug af AI er tilladt og ansvarlig.
Vores skabeloner til at skabe dine egne AI-principper og politikker er gode ressourcer, hvis du er i gang med at udforme din virksomheds officielle holdning til AI. Men hvis du allerede anvender AI-værktøjer, og du vil sikre dig, at du stiller de rigtige spørgsmål om AI, kan du downloade vores flowchart til identifikation af ansvarlig AI-brug i din organisation. Ved at stille en række spørgsmål hjælper det dig med at vurdere specifikke anvendelser af AI og fortælle dig, om de kan betragtes som ansvarlige - eller om du skal gøre noget mere, før du implementerer dem i virksomheden.