Sådan narrer netkriminelle AI-modellerne – og hinanden
Hjem LEVERANDØRCISCOSådan narrer netkriminelle AI-modellerne – og hinanden

Sådan narrer netkriminelle AI-modellerne – og hinanden

Af Redaktionen

Mens generativ AI og store sprogmodeller (LLM’er) bliver integreret i stort set alle dele af samfundet, gælder det samme i den kriminelle verden.

Cisco Talos har kortlagt, hvordan AI-modeller bliver brugt til at planlægge og udføre netbedragerier – og i nogle tilfælde bliver bedragere selv narret…

I dag bruger cyberkriminelle store sprogmodeller (LLM’er) til at planlægge og gennemføre forskellige former for angreb. Det kan eksempelvis være hjælp til at skrive ondsindet kode som ransomware, skabe remote access trojans (RATs) – altså værktøjer til at fjernstyre en andens computer – eller udvikle færdige scripts og andre hjælpemidler, der anvendes i angreb.

Sprogmodellerne bruges også til at skabe phishing-beskeder, falske login-sider og tekniske konfigurationsfiler. Derudover anvendes de til research – f.eks. for at teste, om stjålne kreditkortnumre fungerer, finde Sådan narrer netkriminelle AI-modellerne – og hinandensikkerhedshuller på websites eller få inspiration til nye bedrageri-metoder.

I AI-tjenester som ChatGPT og lignende er der indbyggede sikkerhedsforanstaltninger, der skal forhindre den slags brug. En forespørgsel om at få hjælp til at skrive en phishing-mail bliver for eksempel automatisk afvist. Men der findes mange metoder til at narre AI’en.

Det kan være at forvrænge bestemte ord eller sætninger, eller at bede modellen svare som en karakter fra et fiktivt univers, som ikke følger etiske regler. Nye teknikker opdages hele tiden, mens udviklerne samtidig forstærker deres forsvar – et slags kapløb mellem angribere og beskyttere.

Nogle driftige cyberkriminelle har udviklet deres egne sprogmodeller uden sikkerhedsbegrænsninger, som de markedsfører til andre kriminelle. Eksempler på sådanne værktøjer er GhostGPT, WormGPT, DarkGPT, DarkestGPT og FraudGPT.

I sin undersøgelse forsøgte Cisco Talos at få adgang til FraudGPT – og det blev tydeligt, at udvikleren bag slet ikke havde et fungerende produkt. Formålet var i stedet at snyde potentielle kunder for kryptovaluta. Et eksempel på, hvordan bedragerier i den kriminelle verden ofte er rettet mod andre bedragere.

Efterhånden som AI-teknologien udvikler sig, forventer Cisco Talos, at kriminelle i stigende grad vil bruge sprogmodeller til at effektivisere deres processer og generere indhold, der nemmere kan omgå forsvar. Teknologien udgør ikke nødvendigvis helt nye cybervåben, men den gør de eksisterende metoder mere effektive og sværere at opdage.

Relaterede artikler

Vi bruger cookies og andre identifikatorer for at forbedre din oplevelse. Dette giver os mulighed for at sikre din adgang, analysere dit besøg på vores hjemmeside. Det hjælper os med at tilbyde dig personlig indhold og nem adgang til nyttige oplysninger. Klik på "Jeg accepterer" for at acceptere vores brug af cookies og andre identifikatorer eller klik på "Flere oplysninger" for at justere dine valg. jeg godkender Flere oplysninger >>