82 pct. af beslutningstagere i danske virksomheder føler sig pressede til at godkende AI-løsninger på trods af sikkerhedsproblemer.
Det viser en ny survey fra cybersikkerhedsselskabet TrendAI. “Organisationer mangler ikke bevidsthed om risiko. De mangler rammerne til at håndtere den,” siger den danske sikkerhedsekspert Jonas Hvarness Sebøk-Grandal om undersøgelsen.
Danske virksomheder accelererer brugen af kunstig intelligens, men halter bagefter, når det gælder styring og sikkerhed.
En ny undersøgelse fra TrendAI viser, at 82 pct. af forretningsbeslutningstagere og 70 pct. af IT-beslutningstagere har følt sig presset til at godkende AI-løsninger, der indebærer potentielle sikkerhedsrisici.
Samtidig vurderer virksomhederne selv, at de i gennemsnit kun opdager 42-45 % af skadelig eller uventet AI-adfærd, hvilket peger på, at en stor del af truslerne går under radaren.

Jonas Hvarness Sebøk-Grandal, country sales director for Danmark, Grønland og Færøerne hos TrendAI
“Organisationer mangler ikke bevidsthed om risiko. De mangler rammerne til at håndtere den. Når implementeringen drives af konkurrencepres frem for governance, risikerer man at indlejre AI i kritiske systemer uden de nødvendige kontroller,” siger danske Jonas Hvarness Sebøk-Grandal, country sales director for Danmark, Grønland og Færøerne hos TrendAI.
Samtidig peger undersøgelsen på, at uklare ansvarsforhold og manglende governance øger risikoen yderligere. Sikkerhedsteams arbejder ofte reaktivt på beslutninger truffet højere oppe i organisationen, hvilket kan føre til smuthuller og øget brug af uautoriserede AI-værktøjer.
Samtidig viser TrendAI’s trusselsanalyser, at cyberkriminelle allerede udnytter AI til at automatisere rekognoscering, accelerere phishingangreb og sænke barrieren for cyberkriminalitet, hvilket øger både hastighed og omfang af angreb.
AI-udrulning overhaler kontrollen
Organisationer implementerer AI hurtigere, end de kan håndtere de tilhørende risici, hvilket skaber et voksende gab mellem ambition og kontrol.
Selvom 98 pct. af IT-beslutningstagere og 92 pct. af forretningsbeslutningstagere i undersøgelsen vurderer, at de er godt eller moderat forberedte på AI, er governance stadig umoden.
Kun 64 pct. af IT-beslutningstagere og 42 pct. af forretningsbeslutningstagere siger, at de har etableret AI-politikker, mens mange fortsat er i gang med at udvikle dem.
Samtidig er der stor forskel på forståelsen af de juridiske rammer: 76 pct. af IT-beslutningstagere føler sig sikre, mens det kun gælder 34 pct. af forretningsbeslutningstagere.
AI er både problem og løsning
På trods af udfordringerne ser mange organisationer AI som en nødvendig del af cyberforsvaret. 66 pct. af IT-beslutningstagere og 56 pct. af forretningsbeslutningstagere mener, at AI er nødvendigt for at bekæmpe AI-drevne trusler.
“AI er både problemet og løsningen. Vi ser allerede, hvordan angribere bruger AI til at øge hastigheden og skalaen af angreb. Det stiller nye krav til virksomhedernes evne til at arbejde proaktivt med sikkerhed,” siger Jonas Hvarness Sebøk-Grandal.
Autonom AI skaber nye risici og usikkerhed
Tilliden til mere avancerede, autonome AI-systemer er stadig i en modningsfase i danske virksomheder.
Medarbejderne i danske virksomheder er splittede i deres forventninger til AI-agenter: 56 pct. af IT-beslutningstagere og 46 pct. af forretningsbeslutningstagere forventer, at teknologien vil forbedre evnen til at opdage trusler, mens hhv. 40 pct. og 42 pct. af samme grupper medarbejdere vurderer, at den i stedet vil øge omfanget af angreb.
Bekymringerne er allerede tydelige. 56 pct. af IT-beslutningstagere peger på adgang til følsomme data som den største risiko ved AI-agenter, mens mange samtidig fremhæver manglende overblik og kontrol som centrale udfordringer. Kun 32 pct. af forretningsbeslutningstagerne er bekymrede for AI-agenterne adgang til følsomme data.
Samtidig viser undersøgelsen, at virksomheder i gennemsnit kun opdager 42-45 pct. af skadelig AI-adfærd, hvilket rejser spørgsmål om, hvorvidt organisationer reelt kan overvåge og kontrollere disse systemer, når de først er implementeret.
Der er heller ikke enighed om, hvordan man bevarer kontrollen. 70 pct. af IT-beslutningstagere og 44 pct. af forretningsbeslutningstagere mener, at der bør indføres en såkaldt “kill switch”, der kan lukke eller isolere AI-systemer ved fejl eller misbrug.
“Organisationer bevæger sig mod mere autonom AI uden at være enige om, hvordan de bevarer kontrollen. Uden synlighed og styring implementerer de systemer, de ikke fuldt ud forstår,” siger Jonas Hvarness Sebøk-Grandal.
Om undersøgelsen
Undersøgelsen er gennemført blandt 100 danske forretnings- og IT-beslutningstagere i virksomheder med over 250 ansatte i januar 2026. Den fulde undersøgelse omfatter 3700 medarbejdere i 23 lande.
Om TrendAI
TrendAI, en forretningsenhed under Trend Micro og global leder inden for AI-sikkerhed, gør verden mere sikker for digital informationsudveksling på tværs af virksomheder, myndigheder og organisationer. Med afsæt i sikkerhedsekspertise og innovation udnytter TrendAI kunstig intelligens til at beskytte mere end 500.000 virksomheder og millioner af privatpersoner på tværs af AI, cloud, netværk, endpoints og enheder. AI uden frygt. TrendMicro.com






