I mange virksomheder er AI efterhånden ved at være en lige så fast del af arbejdsdagen, som kaffemaskinens kontinuerlige koffeinbombardement.
Men hvor kaffen for længst er blevet godkendt som energi- og effektivitetsværktøj på kontoret, er det ikke nødvendigvis tilfældet med AI. Men det er de færreste klar over.
Antallet af webinarer, oplæg og kurser i ChatGPT, Midjourney og andre AI-værktøjer er eksploderet i løbet af de seneste år. Optimering af processer, hurtig research og dialog med en altid tilgængelig sparringspartner har gjort arbejdsdagen lettere for mange. Men her i begyndelsen af AI-revolutionen er der dog en væsentlig detalje, som mange ikke har fået helt styr på endnu. Nemlig om de overhovedet må anvende de nye værktøjer på arbejdspladsen.
En global undersøgelse fra KnowBe4 viser et alvorligt misforhold mellem medarbejderes brug af AI og kendskabet til virksomhedens retningslinjer. I gennemsnittet bruger over halvdelen af de adspurgte i Frankrig, Holland og Storbritannien AI-tjenester på jobbet – men kun omkring 18 procent af dem kender til virksomhedens AI-retningslinjer.
I Storbritannien og Holland svarer over 15 procent, at de slet ikke er klar over, om der findes en politik for brugen af AI på arbejdspladsen. Yderligere svarer hver tiende medarbejder i undersøgelsen, at de har indtastet kundedata i en AI-tjeneste.

Martin Kraemer, sikkerhedsekspert KnowBe4
Uvidenhed skaber usikkerhed
Når størstedelen af de ansatte bruger AI, men færre end 20 procent forstår reglerne for brugen, står virksomheden med et massivt problem. AI-værktøjer er kraftfulde – men uden klare retningslinjer og træning kan medarbejderne ubevidst lægge følsomme oplysninger, såsom kundedata, ind i systemer, der ikke er designet til at håndtere dem sikkert.
Data, der først er indsendt som en del af en prompt, bliver en del af AI-modellen og kan indgå i fremtidige svar. Uden brug af de sikkerhedsforanstaltninger, som AI-systemer tilbyder, kan følsomme oplysninger lække. Derudover opbygger store sprogmodeller (LLM’er) brugerprofiler over tid, hvilket gør det muligt for dem at udlede information om enkeltpersoner eller virksomheder, som kan betragtes som private eller fortrolige.
Virksomheder bør handle hurtigt for at undgå utilsigtede sikkerhedsbrud – blandt andet ved at kommunikere klare retningslinjer og sikre, at medarbejdere er rustet til at anvende AI ansvarligt på arbejdspladsen.
En stærk sikkerhedskultur styrker medarbejdernes indre motivation til at træffe bedre sikkerhedsbeslutninger både på arbejdet og derhjemme ved at uddanne dem i at identificere cybertrusler og undgå at blive ofre for cyberkriminelle.
Forståelse frem for frygt
Kombinationen af klare linjer og awareness træning kan være første skridt på vejen mod et stærkere cybersikkerhedsforsvar. Med klare, letforståelige og praksisnære retningslinjer for, hvordan medarbejdere må og ikke må bruge AI på jobbet, bliver medarbejderne mere effektive og bedre klædt på til at arbejde sikkert.
Retningslinjerne skal formidles effektivt og løbende, gennem både onboarding, interne kampagner og løbende træning, ellers drukner de i et hjørne af intranettet, som man kun bliver bekendt med i begyndelsen af sin ansættelse.
IT- og sikkerhedsafdelinger kan også stille godkendte, brugervenlige AI-værktøjer til rådighed, som matcher medarbejdernes behov i det daglige arbejde. Når det rigtige værktøj er tilgængeligt, falder risikoen for, at medarbejdere tyer til uautoriserede løsninger.
Medarbejderne skal ikke frygte at bruge AI, men de skal forstå konsekvenserne af forkert brug og føle sig trygge ved at spørge om hjælp, når de kommer i tvivl. Og det er nu engang lettere at spille efter reglerne, når man kender dem.
Af Martin Kraemer, sikkerhedsekspert KnowBe4