Eksperter: Tænk jer om inden I starter jeres AI-eventyr
Hjem SIKKERHED Eksperter: Tænk jer om inden I starter jeres AI-eventyr

Eksperter: Tænk jer om inden I starter jeres AI-eventyr

Af Redaktionen

Kunstig intelligens stiger i popularitet hos danske virksomheder.

AI kommer med mange fordele, men ifølge it-virksomhed og professor i IT-sikkerhed er der vigtige faldgruber, man skal tage højde for, inden man går i gang.

Halvdelen af alle danske virksomheder med over 100 ansatte anvender i dag kunstig intelligens. Dertil forventer knap hver tredje mindre og større virksomhed at påbegynde brug af AI i de kommende år.

Det viser nye tal fra Dansk Industri.

Hos IT-virksomheden imt8, der blandt andet arbejder med IT-sikkerhed, oplever man, at hver anden af de virksomheder de besøger, ikke har et komplet billede af AI-relaterede risici. Firmaet understreger derfor vigtigheden af at tænke sig godt om og overveje alle potentielle risici, inden man kaster sig ud i arbejdet.

– IT-sikkerhed er som en rullende bold, der hele tiden bevæger sig uventede steder hen. Det gælder også i forhold til AI. Hvis der ikke er orden i penalhuset, når man begynder at indarbejde den kunstige intelligens, så kommer man let ud i situationer, hvor den betingede adgang til data forsvinder. På den måde har man som virksomhed ikke styr på, hvem der kan se hvad, siger Jacques D. Møller, der er AI specialist hos itm8.

Eksperter: Tænk jer om inden I starter jeres AI-eventyrDen opfordring bakkes op af Jens Myrup, der er professor i cybersikkerhed ved Institut for Elektroniske Systemer på Aalborg Universitet.

– Kunstig intelligens er mange ting, og det bruges ofte forskellige steder i en organisation. Der findes adskillige modeller, som en virksomhed kan anvende, når man arbejder med AI, men får man ikke struktureret indsatsen professionelt, risikerer man utilsigtet at få delt passwords og andre følsomme data med de forkerte. Det kan have alvorlige konsekvenser, fortæller Jens Myrup.

Løn og nedskæringsplaner

Jacques D. Møller nævner især kollegaers løn, potentielle nedskæringsplaner, verserende retssager samt ledelsesreferater som skrækeksempler på information, som medarbejdere via kunstig intelligens kan få adgang til, og han pointerer:

– Mange snakker om AI, og det er en positiv ting – men man skal tænke sig godt om og have et stærkt internt fokus, inden man går i gang. Der findes rigtig mange modeller for AI herunder Microsoft Copilot for Microsoft 365, og folk ude i virksomhederne er ofte meget i tvivl om, hvad de skal anvende. Der skal laves en helt fast og stram struktur for, hvilke medarbejdere, der har adgang til hvilke mapper, så virksomhedens AI kan læse det korrekt, siger Jacques D. Møller.

Skadelige koder

Jens Myrup beskriver konkrete situationer, hvor man uforvarende kan komme til at åbne op for fortrolige data.

– Hvis en medarbejder i bedste mening lægger en samlet strategiplan ind i en Chatbot og beder den konstruere en PowerPoint-præsentation til virksomhedens medarbejdere, risikerer man, at it-kyndige ansatte efterfølgende kan få adgang til hele strategien. Det er blot et eksempel på, hvordan AI – uden man nødvendigvis lige tænker over det – kan åbne for meget op.

– Når en programmør i en it-afdeling eksempelvis søger efter eksisterende kode i et åbent bibliotek og trækker dele af dette over i sin egen kodning, kan man risikere at få skadelig kode ind i systemet. Det kan i værste tilfælde betyde, at systemer, der burde være lukkede, Indeholder bagdøre, så uvedkommende kan få adgang til fortrolig information, fortæller Jens Myrup.

 

Relaterede artikler

Vi bruger cookies og andre identifikatorer for at forbedre din oplevelse. Dette giver os mulighed for at sikre din adgang, analysere dit besøg på vores hjemmeside. Det hjælper os med at tilbyde dig personlig indhold og nem adgang til nyttige oplysninger. Klik på "Jeg accepterer" for at acceptere vores brug af cookies og andre identifikatorer eller klik på "Flere oplysninger" for at justere dine valg. jeg godkender Flere oplysninger >>