AI generated image of a supercomputer in a datacenter (FOTO: Shutterstock)

AI-genereret billede af en supercomputer. (FOTO: Shutterstock)

Der har i den offentlige debat været meget omtale af kunstig intelligens – bedre kendt under betegnelsen AI – og cybersikkerhed. Senest i forbindelse med udbredelsen af avancerede AI sprogmodeller, som kan generere meget troværdige tekster og assistere med udvikling af computerprogrammer. Denne artikel adresserer nogle af udfordringerne ved AI og giver CFCS’ bud på fokusområder nu og i den nære fremtid. Det er et område i hastig udvikling, som kalder på en løbende dialog mellem myndigheder, virksomheder og aktører inden for AI og cybersikkerhed.

 

AI har været under udvikling i adskillige årtier og har længe fundet anvendelse på specifikke områder. Typisk som en computeralgoritme, der er blevet optimeret, også kaldet ”trænet”, til at finde sammenhænge i kendte data og bruge dem til at give svar på nye spørgsmål i samme kategori. Det kan være til så forskellige opgaver som for eksempel at adskille spam mails fra almindelige mails og skelne mellem billeder af forskellige genstande.

 

AI sprogmodeller har vundet meget frem siden sidste halvdel af 2022 og benyttes i offentligt tilgængelige chatbotter som ChatGPT fra OpenAI og Googles tjeneste, Bard. Det har især vakt opsigt, at modellerne har vist sig at kunne formulere grammatisk korrekte og letlæselige svar på meget komplekse spørgsmål samt løse opgaver, som normalt forudsætter generel menneskelig intelligens og højere uddannelser. De algoritmer, der anvendes i de nyeste chatbotter, er i kategorien ”Large Language Model”. Det er ekstremt store computermodeller, der kan finde generelle sammenhænge i enorme mængder kendte tekster. Modellerne betegnes desuden som ”generative”, hvilket vil sige, at de er i stand til at generere nyt, komplekst indhold.

 

Uforudsete egenskaber ved kunstig intelligens

Noget af det opsigtsvækkende og overraskende i de nye modeller er, at de udvikler mere avancerede kunstigt intelligente egenskaber, efterhånden som man øger computerkraften og mængden af tekster i træningen. Man taler om ”emergente” egenskaber, som ikke direkte var planlagt eller forudset i udviklingsfasen.

For eksempel at en chatbot bliver i stand til at løse eksamensopgaver på universitetsniveau eller skrive troværdige phishing-mails. Det er den type egenskaber, der både indeholder potentiale til at revolutionere vores samfund og giver dybe panderynker i forhold til, hvordan de kan udnyttes af ondsindede aktører.

 

Generative sprogmodeller – hvordan virker de?

Generative sprogmodeller består af neurale netværk. Det er en type AI, der er baseret på et højt antal små, forbundne matematiske funktioner kaldet neuroner. Neurale netværk er inspireret af opbygningen af den menneskelige hjerne, som tilsvarende består af et højt antal forbundne biologiske neuroner.

 

Modellerne trænes af supercomputere, der optimerer vægtningen af information i de mange neuroner, efterhånden i størrelsesordenen 10 - 100 milliarder. Der kan indgå flere hundrede tusinde processorkerner i træningen, og prisen for et datacenter til træning af de største modeller ligger i milliardklassen.

 

Adgangen til rå computerkraft til behandling af enorme mængder data er en afgørende faktor for den store udbredelse af avanceret AI det seneste årti, og det er typisk de store teknologispillere, der har den nødvendige kapacitet. Anvendelsen af en trænet model kræver langt mindre computerkraft, men efterspørgslen er så stor, at udbyderne sætter begrænsninger på brugen og tilbyder betalingsmodeller.

 

I træningen af modellerne indgår store mængder kendte tekster, der fungerer som en slags reference for, hvordan det giver mening at konstruere nye tekster som svar på spørgsmål. De kendte tekster kan for eksempel være datasættet WebText, som består af indhold samlet fra omkring 8 millioner websider.

 

Træningen af sprogmodellerne indeholder flere fuldautomatiske trin og kan afsluttes med optimering baseret på en score af modellens genererede tekster foretaget af mennesker. Når en bruger efterfølgende stiller et spørgsmål til en trænet chatbot, svarer den med det tekstoutput, som repræsenterer den mest sandsynlige sammenstilling af kendte ord baseret på vægtningen i de trænede neuroner.

 

Lignende generative AI modeller findes også til at skabe kunstige lyde, billeder og videoer, og er kendt for at kunne misbruges til efterligning af kendte personer, også kaldet ”deep fakes”.

 

Udfordringer ved brug af sprogmodeller

I forhold til cybersikkerhed kan sprogmodeller medføre en række udfordringer. Potentialet for misbrug af ondsindede aktører gør, at udviklingen af chatbotter er et område, som det er væsentligt at følge med i. På nuværende tidspunkt fremhæver CFCS nedenstående anvendelser af generative sprogmodeller som de mest relevante på kort sigt:

 

Generering af phishingmails

De nye chatbotter giver hackere mulighed for at effektivisere produktion af phishingmails. Hvor det tidligere krævede en del manuel research at målrette phishingmails mod udvalgte personer, såkaldt ”spear phishing”, åbnes der nu for en højere grad af masseproduktion. I denne kategori finder man også falske forretningsmails fra personer, der udgiver sig for at være en anden. Formålet kan for eksempel være at lokke til betaling af falske fakturaer, også kaldet BEC eller direktørsvindel, eller få adgang til information.

 

Følgende råd kan medvirke til at begrænse omfanget og konsekvenser ved phishingmails:

  1. Hold alle systemer, programmer og enheder opdateret.
  2. Implementér basale tekniske foranstaltninger som eksempel DMARC, sikker DNS, antivirus, spam-filtre og flerfaktor-autentifikation på relevante tjenester.
  3. Etablér og afprøv relevant forebyggende og udbedrende  hændelseshåndtering. Se i øvrigt CFCS’ vejledning ”Phishing – Beskyt organisationen mod phishing-mails”.

 

Generering af malware

De nye chatbotter kan i et vist omfang benyttes til at skrive kildekode til malware, på samme måde, som de kan anvendes som ”kodeassistent” til almindelig, legitim softwareudvikling. Teknologien udvikler sig hele tiden og kan give mindre teknisk-kyndige adgang til kodegenerering, hvilket kan få betydning for udbredelsen af cyberangreb.

 

I forbindelse med malware-angreb kan angriberen for eksempel skaffe sig uretmæssig adgang til offerets computer eller netværk. Følgende råd kan medvirke til at begrænse omfanget og konsekvenser ved malware:

  1. Hold alle systemer, programmer og enheder opdateret.
  2. Implementér basale tekniske foranstaltninger som for eksempel intern netværkssegmentering, granuleret adgangskontrol til alle former for IT-ressourcer, antivirus, flerfaktor-autentifikation, logning/overvågning.
  3. Tag backup af såvel data som konfigurationer og opbevar disse adskilt fra produktionsmiljøet. Se i øvrigt CFCS vejledningerne ”Cyberforsvar der virker” og ”Reducér risikoen for ransomware”.

 

Sikring af privatliv og fortrolig information

Inden man sender input til en offentligt tilgængelig chatbot, bør man være opmærksom på, at den afsendte information kan blive misbrugt. Organisationer bør derfor gøre sig klart, i hvilket omfang medarbejdere kan indsætte fortroligt indhold, personfølsomme oplysninger eller kildekode til egne computerprogrammer i chatbotterne. Det vil som minimum være tilrådeligt at tjekke vilkårene for tjenester, som man overvejer at tillade adgang til, og gøre medarbejdere opmærksomme på begrænsninger i brugen. På det punkt adskiller anvendelsen af chatbotter sig ikke væsentligt fra andre offentligt tilgængelige services, der tager imod input fra brugeren som for eksempel websider og søgemaskiner.

 

Følgende generelle råd bør følges ifm. brugen af chatbotter:

  1. Sæt dig til enhver tid ind i organisationens regler for at videregive sensitive informationer, eksempelvis til en chatbot. Når informationen er sendt, har du reelt set ikke kontrol over den længere.
  2. Før eventuelt log over hvilke informationer, der sendes. Herved kan eventuelle læk måske lettere forklares.

 

Problematisk brug i sagsbehandling og lignende

Chatbotter formulerer tekster, som virksomheder og myndigheder kan bruge i det daglige arbejde, for eksempel i sagsbehandling. De tekster, som en chatbot genererer, er ikke altid faktuelt korrekte, og de kan præsentere noget usandt som et faktum, også kaldet ”hallucinationer”. Det er vigtigt at gøre sig klart, at teksterne er udtryk for en algoritmes bud på en plausibel, sammenhængende tekst ud fra en enorm mængde information. Chatbotterne er endnu ikke gode til at dokumentere kilder til den information, der indgår i svarene, og man bør være opmærksom på udfordringer med tendentiøse svar – også kaldet ”bias”.

 

Følgende råd bør følges:

  1. Vær opmærksom på, at anvendelsen af chatbotter ikke nødvendigvis giver sporbarhed over eventuelle resultater.
  2. Vær til enhver tid kritisk over for resultaterne, og kontrollér gerne disse op imod anden kilde.
  3. Hvis en tekst, genereret af en chatbot, skal anvendes, bør der være en kildeangivelse til hvilken chatbot, den kommer fra, samt en tidsangivelse.

 

Større udbredelse af misinformation og konspirationsteorier

Chatbot teknologien kan også benyttes til at generere plausible historier, der kan forvrænges og bruges som grundlag for at sprede misinformation og konspirationsteorier, for eksempel via sociale medier. Problemet må forventes at blive større, i takt med at mere indhold med troværdig ordlyd kan genereres automatisk.

 

Følgende råd bør følges:

  1. Kontrollér om muligt altid eventuelle informationer direkte hos den myndighed, organisation eller person, det vedrører.
  2. Undlad at videresende eventuel information, som du ikke selv har verificeret korrektheden af.

 

Opsummering

Avancerede chatbotter og andre generative AI modeller bliver mere kompetente og i stand til at efterligne menneskelig intelligens i et tempo, som få havde troet muligt. Teknologien har stort potentiale til at revolutionere vores samfund, men der tegner sig også en række udfordringer i forbindelse med cybersikkerhed.

 

På kort sigt fremhæver CFCS risikoen for at forstærke allerede eksisterende udfordringer. Den overordnede anbefaling er derfor på nuværende tidspunkt, at organisationer bør fokusere på at opretholde et generelt, stærkt cyberberedskab i tråd med CFCS’ grundlæggende rådgivning.

 

Sidst opdateret 31. maj, 2023 - Kl. 10.12