En ny omfattende rapport fra it-sikkerhedsvirksomheden Palo Alto Networks dokumenterer en markant stigning i brugen af generativ AI (GenAI) blandt virksomheder verden over.
Rapporten, “State of Generative AI 2025“, viser, at i løbet af 2024 steg trafikken relateret til GenAI med hele 890 procent – et udtryk for den hurtige modning af teknologien og dens evne til at øge effektiviteten i stort set alle brancher.
Men der er et ’men’, for med væksten følger en ny æra af risici. Rapporten viser, at datalæk relateret til GenAI er mere end fordoblet og nu udgør 14 procent af alle sikkerhedshændelser, og den hurtige udbredelse sker ofte uden, at virksomheder har klare retningslinjer eller tilstrækkelig kontrol. En voksende del af trafikken stammer fra såkaldt “Shadow AI” – AI-værktøjer taget i brug af medarbejdere uden IT-afdelingens vidende – og det skaber alvorlige blinde vinkler for virksomhedens sikkerhedsansvarlige.
Ifølge rapporten benytter den gennemsnitlige virksomhed i dag 66 forskellige GenAI-applikationer. Omkring 10 procent af dem vurderes at være højrisiko enten på grund af svag databeskyttelse, uklar politik for datalagring eller lav modstandsdygtighed over for manipulation. Særligt brancher som minedrift, finans og produktion er udsatte, ligesom sektorer med høj anvendelse af AI til kodning og automatisering skiller sig ud.
Populære værktøjer – og deres bagside
På globalt plan er de mest anvendte AI-værktøjer er grammatiktjenesten Grammarly, Microsoft 365 Copilot og OpenAI’s ChatGPT. Grammarly alene står for næsten 40 procent af al GenAI-trafik, mens over 49 procent af virksomheder anvender Microsoft Copilot eller Copilot Studio.
Men popularitet er ikke ensbetydende med sikkerhed. Tests udført af Palo Alto Networks viser, at over 70 procent af de undersøgte skriveassistenter kan manipuleres til at generere skadeligt eller uetisk indhold – eksempelvis via jailbreak-angreb, der omgår værktøjets sikkerhedsskranker.
Særligt AI-værktøjer til kodegenerering giver anledning til bekymring, ikke mindst fordi de er udbredt i teknologi- og fremstillingssektoren. Tilsammen står disse brancher for 39 procent af al GenAI-trafik relateret til kodning. Mange af de anvendte værktøjer mangler centrale sikkerhedsfunktioner – for eksempel kryptering af data, adgangskontrol eller beskyttelse mod, at skadelig kode genereres og sendes videre i udviklingsmiljøet. Når kildekode behandles i apps uden grundlæggende beskyttelse, øges risikoen markant for, at data lækkes, skadelig kode bliver implementeret, eller at uvedkommende får adgang til systemer, der burde være afskærmet.
Sådan håndterer I risikoen
Palo Alto Networks anbefaler, at virksomheder hurtigst muligt etablerer en målrettet og flerlaget governance-strategi for AI. Det handler om at skabe overblik, sætte tydelige rammer og beskytte data og brugere hele vejen gennem AI-økosystemet.
Konkret opfordres virksomheder til at:
- Implementere adgangsstyring baseret på brugertype, geografisk placering, enhedskompatibilitet og applikationsrisiko.
- Begrænse brugen af AI-platforme og plugins til dem, der har et dokumenteret forretningsmæssigt formål.
- Gennemføre realtidsinspektion af AI-trafik og aktivt håndhæve sikkerhedspolitikker på tværs af infrastruktur og datamiljøer.
- Sikre følsomme data ved at etablere centrale mekanismer til at opdage og forhindre uautoriseret adgang og lækage.
- Indføre en zero trust-tilgang, der beskytter mod avancerede trusler – herunder AI-genereret malware, social engineering og dataudtræk via AI-svar.
Disse tiltag gør det muligt at balancere innovation med sikkerhed og undgå, at AI-udrulningen bliver en bagdør til virksomhedens mest kritiske data.