Generativ AI, også kaldet generativ kunstig intelligens, har for alvor fået fodfæste i samfundet i løbet af det seneste års tid. Teknologien gør det muligt at effektivisere løsningen af en lang række opgaver, men medfører også udfordringer og dilemmaer.

 

I en ny trusselsvurdering fra Center for Cybersikkerhed (CFCS) bliver det belyst, hvordan generativ AI udnyttes af ondsindede aktører, og hvilke potentialer for misbrug teknologien medfører.

 

AI-teknologier kan endnu ikke planlægge og udføre cyberangreb uden menneskelig indblanding. Men teknologien kan generere et output, typisk i form af tekst, på baggrund af et menneskeligt input. I de forkerte hænder kan outputtet misbruges, f.eks. til at indgå som del af cyberkriminalitet.

 

Hackernes angrebsprocesser kan særligt blive optimeret ved brugen af AI til at producere phishing-mails eller delkomponenter af ondsindet kode. AI-teknologien er et blandt flere værktøjer, der kan bruges til at udføre cyberangreb.

 

Trusselsvurderingen giver et øjebliksbillede af hackernes brug af generativ AI. Der er et stort potentiale for, at teknologien kan blive misbrugt, men det er ikke entydigt, hvor udbredt brugen af generativ AI er blandt ondsindede aktører.

 

Generativ kunstig intelligens er et område i hastig udvikling, især i den brede, kommercielle tilgængelighed af tjenester, som eksempelvis ChatGPT. På trods af de nye muligheder for misbrug ændrer teknologien ikke den overordnede cybertrussel, som Danmark står overfor.

 

Vurderingen er tiltænkt ledelsen og it-sikkerhedsansvarlige i danske virksomheder og myndigheder. Andre, der ønsker viden om trusler forbundet med generativ AI, kan også med fordel læse den.