Knap hver anden virksomhed har indtastet fortrolige forretningsoplysninger i generative AI-værktøjer, mens hver fjerde midlertidigt har forbudt brugen af selv samme. Det viser en ny global analyse fra Cisco.
I takt med at et stigende antal virksomheder prøver kræfter med generativ AI, melder udfordringerne sig også i forhold til datasikkerheden og reguleringen heraf.
Sådan lyder konklusionen i en ny global undersøgelse fra Cisco blandt 2.600 professionelle inden for datasikkerhedsområdet om deres anvendelse af AI-værktøjer. Analysen afslører blandt andet, at de fleste organisationer i et eller andet omfang har indført restriktioner for anvendelsen af generativ AI på grund af bekymringer om databeskyttelse.
Knap hver anden (48 procent) indrømmer i den forbindelse, at de har delt fortrolige forretningsoplysninger med generative AI-værktøjer, mens hver fjerde (27 procent) svarer, at deres organisation indtil videre helt har forbudt brugen af generativ AI.
Spørger man Cisco selv, taler resultaterne deres tydelige sprog.
“Privatlivets fred og ordentlig datastyring er grundlaget for ansvarlig AI,” siger Dev Stahlkopf, Ciscos Chief Legal Officer og fortsætter: “For organisationer, der arbejder på at blive klar til AI, er investeringer i privatlivets fred et vigtigt grundlag, der hjælper med at fremskynde effektiv AI-styring.”
Udbredte privacy-bekymringer
Når det kommer til de største databekymringer ved brugen af AI, topper truslen mod organisationers juridiske og intellektuelle ejendomsrettigheder (IP-rettigheder) samt risikoen for, at forretningsoplysninger videregives til offentligheden eller konkurrenter. Henholdsvis 69 og 68 procent af de adspurgte peger på disse.
Af samme grund har størstedelen af virksomhederne i undersøgelsen indført kontroller for at dæmme op for databrister: 63 procent har begrænset hvilke data, der kan indtastes, 61 procent har indskrænket hvilke AI-værktøjer, medarbejderne kan bruge, og 27 procent har helt forbudt AI-programmer indtil videre.
Spørgsmål om kundetillid
Ikke desto mindre har mange indtastet potentielt følsomme oplysninger: 45 procent har delt medarbejderoplysninger, mens 48 procent har gjort det samme med fortrolige virksomhedsoplysninger.
I den forbindelse har 91 procent tilkendegivet, at virksomheden bør gøre en større indsats for at forsikre kunder om, at deres data anvendes på ansvarlig og legitim vis i AI-værktøjer. Samtidig siger hele 98 procent, at eksterne privacy-certificeringer udgør en vigtig faktor for deres købsbeslutninger – en statistik, som dermed ligger på sit højeste niveau i flere år.
“94 procent medgiver, at kunder ikke ville købe ydelser hos dem uden tilstrækkelig databeskyttelse. De søger konkrete beviser på, at man kan stole på virksomheden, da privacy er blevet uløseligt forbundet med kundernes tillid og loyalitet. Og det gælder mere end nogensinde her i AI-æraen, hvor investeringer i databeskyttelse gør virksomheder bedre i stand til at anvende teknologien etisk og ansvarligt,” siger Harvey Jang, global vicepræsident og Chief Privacy Officer i Cisco.
Om undersøgelsen
’Data Privacy Benchmark Study’ er syvende udgave af Ciscos årlige analyse af de mest presserende privacy-spørgsmål og deres indvirkning på erhvervslivet. Undersøgelsen bygger på svar fra 2.600 respondenter beskæftiget inden for privacy og datasikkerhed på tværs af 12 lande.
Om Cisco
Cisco (NASDAQ: CSCO) er en af verdens førende it-virksomheder, der leverer løsninger inden for bl.a. datasikring, it-infrastrukturer og fleksibel anvendelse af softwareapplikationer.