Ny rapport: Cyberkriminelle udnytter AI til målrettede og skalerbare angreb
Hjem AINy rapport: Cyberkriminelle udnytter AI til målrettede og skalerbare angreb

Ny rapport: Cyberkriminelle udnytter AI til målrettede og skalerbare angreb

Af Redaktionen

Kunstig intelligens har for alvor fundet vej til cyberkriminelles værktøjskasse.

En ny rapport fra Check Point Software Technologies afslører, hvordan AI bliver brugt til alt fra deepfakes og social engineering til udvikling af specialdesignede AI-modeller, der genererer skadelig kode og sofistikerede phishing-angreb.

Ifølge Check Point Software Technologies nye AI Security Report 2025 har cyberkriminelle i den grad taget kunstig intelligens til sig og integreret den i deres angrebsmetoder. Rapporten beskriver, hvordan AI anvendes til blandt andet at skabe deepfakes, der imiterer virksomhedsledere for bl.a. at narre medarbejdere til at udføre økonomiske overførsler, og hvordan specialdesignede AI-modeller som WormGPT, producerer skadelig kode og phishing-mails på særdeles effektiv vis.

Ny rapport: Cyberkriminelle udnytter AI til målrettede og skalerbare angreb

Balder Borup, Security Engineering Team Leader hos Check Point Software Technologies

Den øgede tilgængelighed og brugervenlighed af AI-værktøjer betyder, at de cyberkriminelle hurtigere kan forbedre effektiviteten og tilpasse deres metoder, hvilket stiller stigende krav til virksomhedernes cybersikkerhed.

“Det aktuelle trusselsbillede udfordrer virksomhedernes cyberforsvar. AI-teknologi accelererer ikke blot angreb, men kan også underminere tilliden til teknologien, når AI bliver misbrugt i det omfang, vi oplever. Det stiller helt nye krav til både beredskab og sikkerhedsforanstaltninger omkring brugen af AI,” forklarer Balder Borup, Security Engineering Team Leader hos Check Point Software Technologies.

AI-tendenser, der ændrer trusselsbilledet

Ifølge rapporten er det nemt for cyberkriminelle at anvende AI til at skabe falske digitale identiteter, der bruges til at lokke følsomme oplysninger ud af intetanende medarbejdere og opfordre dem til at iværksætte økonomiske overførsler – i god tro. AI misbruges især til følgende svindelnumre, angreb og manipulation:

  1. Deepfakes og avanceret social engineering
    AI gør det muligt at manipulere med både lyd og billede i et omfang, der ikke er set før. Med få værktøjer kan cyberkriminelle producere overbevisende deepfakes og anvende dem i alt fra telefonsamtaler og videomøder til ondsindede e-mails. Et nyligt eksempel involverede den italienske forsvarsminister Guido Crosetto, der ved hjælp af AI blev imiteret, og de cyberkriminelle forsøgte at overtale medarbejdere til at foretage økonomiske overførsler.
  2. Manipulation af AI-modeller og spredning af misinformation
    Cyberkriminelle udnytter, at AI-modeller trækker på offentlige data, ved at plante falske eller manipulerede informationer – en metode kendt som forgiftning af træningsdata. Målet er at få AI-modeller til ukritisk at gengive misinformation som fakta. Et eksempel på dette er det russiske propagandanetværk Pravda, som stod bag 3,6 millioner falske artikler, hvoraf op til 33 pct. af disse falske artikler blev videreformidlet af AI-chatbots. Det understreger behovet for en kritisk tilgang til den information, brugere får fra AI-tjenester.
  3. AI-konti som ny handelsvare
    Brugerkonti til AI-platforme er blevet en handelsvare i cyberkriminelle kredse. De cyberkriminelle benytter ondsindet software til automatisk at afprøve lækkede brugernavne og adgangskoder på tværs af tjenester, som giver cyberkriminelle adgang til AI-konti, der efterfølgende sælges videre på dark web. Disse konti bruges til at vedligeholde ondsindede AI-modeller som HackerGPT Lite og GhostGPT.
  4. AI-genereret malware og automatiserede angreb
    Ved at modificere åbne AI-modeller som ChatGPT og Gemini har cyberkriminelle udviklet WormGPT og FraudGPT med det formål at kunne generere skadelig kode, skabe phishing-mails og koordinere DDoS-angreb. Disse værktøjer sælges endda som abonnementstjenester med mulighed for teknisk support, hvilket gør det nemt for selv uerfarne aktører at gennemføre avancerede angreb med høj effektivitet.

De cyberkriminelles oprustning på AI-fronten stiller øgede krav til virksomheder og organisationer om at forberede sig på et trusselsbillede i konstant forandring. På den baggrund anbefaler Check Point, at virksomheder og organisationer tager højde for AI i deres forsvarsstrategi ved at implementere følgende AI-sikkerhedsforanstaltninger:

  • Identifikation af AI-genererede trusler: Brug AI aktivt til at identificere og blokere AI-genererede angreb som deepfakes og phishing, før de når frem til brugerne.
  • Forbedret identitetskontrol: Suppler og implementer flerlagede identitetskontroller, der tager højde for AI-drevet imiteret personificering på tværs af tekst, tale og video.
  • Forstå truslerne som AI bringer med sig: It-afdelingen skal kunne gennemskue, hvordan AI indgår i trusselsbilledet, og have værktøjer, der matcher de cyberkriminelles AI-drevne taktikker, til rådighed.

“Angrebene bliver langt mere personlige, hurtigere og sværere at gennemskue. Derfor er det afgørende, at både virksomheder, offentlige myndigheder og private forbrugere forstår den dobbeltrolle, som brugen af AI har medført. AI ændrer dynamikken i cybersikkerhed, for det er både en stor drivkraft for innovation men desværre også en katalysator for nye former for cyberangreb,” afslutter Balder Borup.

Relaterede artikler

Vi bruger cookies og andre identifikatorer for at forbedre din oplevelse. Dette giver os mulighed for at sikre din adgang, analysere dit besøg på vores hjemmeside. Det hjælper os med at tilbyde dig personlig indhold og nem adgang til nyttige oplysninger. Klik på "Jeg accepterer" for at acceptere vores brug af cookies og andre identifikatorer eller klik på "Flere oplysninger" for at justere dine valg. jeg godkender Flere oplysninger >>