Cybertruslen
Lister
På baggrund af en del offentlig debat om muligheder og risici ved brugen af kunstig intelligens har Center for Cybersikkerhed udarbejdet en ny temaartikel, som beskriver de særlige udfordringer og giver et bud på fokusområder nu og i den nære fremtid.
AI-genereret billede af en supercomputer. (FOTO: Shutterstock)
Der har i den offentlige debat været meget omtale af kunstig intelligens – bedre kendt under betegnelsen AI – og cybersikkerhed. Senest i forbindelse med udbredelsen af avancerede AI sprogmodeller, som kan generere meget troværdige tekster og assistere med udvikling af computerprogrammer. Denne artikel adresserer nogle af udfordringerne ved AI og giver CFCS’ bud på fokusområder nu og i den nære fremtid. Det er et område i hastig udvikling, som kalder på en løbende dialog mellem myndigheder, virksomheder og aktører inden for AI og cybersikkerhed.
AI har været under udvikling i adskillige årtier og har længe fundet anvendelse på specifikke områder. Typisk som en computeralgoritme, der er blevet optimeret, også kaldet ”trænet”, til at finde sammenhænge i kendte data og bruge dem til at give svar på nye spørgsmål i samme kategori. Det kan være til så forskellige opgaver som for eksempel at adskille spam mails fra almindelige mails og skelne mellem billeder af forskellige genstande.
AI sprogmodeller har vundet meget frem siden sidste halvdel af 2022 og benyttes i offentligt tilgængelige chatbotter som ChatGPT fra OpenAI og Googles tjeneste, Bard. Det har især vakt opsigt, at modellerne har vist sig at kunne formulere grammatisk korrekte og letlæselige svar på meget komplekse spørgsmål samt løse opgaver, som normalt forudsætter generel menneskelig intelligens og højere uddannelser. De algoritmer, der anvendes i de nyeste chatbotter, er i kategorien ”Large Language Model”. Det er ekstremt store computermodeller, der kan finde generelle sammenhænge i enorme mængder kendte tekster. Modellerne betegnes desuden som ”generative”, hvilket vil sige, at de er i stand til at generere nyt, komplekst indhold.
Noget af det opsigtsvækkende og overraskende i de nye modeller er, at de udvikler mere avancerede kunstigt intelligente egenskaber, efterhånden som man øger computerkraften og mængden af tekster i træningen. Man taler om ”emergente” egenskaber, som ikke direkte var planlagt eller forudset i udviklingsfasen.
For eksempel at en chatbot bliver i stand til at løse eksamensopgaver på universitetsniveau eller skrive troværdige phishing-mails. Det er den type egenskaber, der både indeholder potentiale til at revolutionere vores samfund og giver dybe panderynker i forhold til, hvordan de kan udnyttes af ondsindede aktører.
Generative sprogmodeller består af neurale netværk. Det er en type AI, der er baseret på et højt antal små, forbundne matematiske funktioner kaldet neuroner. Neurale netværk er inspireret af opbygningen af den menneskelige hjerne, som tilsvarende består af et højt antal forbundne biologiske neuroner.
Modellerne trænes af supercomputere, der optimerer vægtningen af information i de mange neuroner, efterhånden i størrelsesordenen 10 - 100 milliarder. Der kan indgå flere hundrede tusinde processorkerner i træningen, og prisen for et datacenter til træning af de største modeller ligger i milliardklassen.
Adgangen til rå computerkraft til behandling af enorme mængder data er en afgørende faktor for den store udbredelse af avanceret AI det seneste årti, og det er typisk de store teknologispillere, der har den nødvendige kapacitet. Anvendelsen af en trænet model kræver langt mindre computerkraft, men efterspørgslen er så stor, at udbyderne sætter begrænsninger på brugen og tilbyder betalingsmodeller.
I træningen af modellerne indgår store mængder kendte tekster, der fungerer som en slags reference for, hvordan det giver mening at konstruere nye tekster som svar på spørgsmål. De kendte tekster kan for eksempel være datasættet WebText, som består af indhold samlet fra omkring 8 millioner websider.
Træningen af sprogmodellerne indeholder flere fuldautomatiske trin og kan afsluttes med optimering baseret på en score af modellens genererede tekster foretaget af mennesker. Når en bruger efterfølgende stiller et spørgsmål til en trænet chatbot, svarer den med det tekstoutput, som repræsenterer den mest sandsynlige sammenstilling af kendte ord baseret på vægtningen i de trænede neuroner.
Lignende generative AI modeller findes også til at skabe kunstige lyde, billeder og videoer, og er kendt for at kunne misbruges til efterligning af kendte personer, også kaldet ”deep fakes”.
I forhold til cybersikkerhed kan sprogmodeller medføre en række udfordringer. Potentialet for misbrug af ondsindede aktører gør, at udviklingen af chatbotter er et område, som det er væsentligt at følge med i. På nuværende tidspunkt fremhæver CFCS nedenstående anvendelser af generative sprogmodeller som de mest relevante på kort sigt:
De nye chatbotter giver hackere mulighed for at effektivisere produktion af phishingmails. Hvor det tidligere krævede en del manuel research at målrette phishingmails mod udvalgte personer, såkaldt ”spear phishing”, åbnes der nu for en højere grad af masseproduktion. I denne kategori finder man også falske forretningsmails fra personer, der udgiver sig for at være en anden. Formålet kan for eksempel være at lokke til betaling af falske fakturaer, også kaldet BEC eller direktørsvindel, eller få adgang til information.
Følgende råd kan medvirke til at begrænse omfanget og konsekvenser ved phishingmails:
De nye chatbotter kan i et vist omfang benyttes til at skrive kildekode til malware, på samme måde, som de kan anvendes som ”kodeassistent” til almindelig, legitim softwareudvikling. Teknologien udvikler sig hele tiden og kan give mindre teknisk-kyndige adgang til kodegenerering, hvilket kan få betydning for udbredelsen af cyberangreb.
I forbindelse med malware-angreb kan angriberen for eksempel skaffe sig uretmæssig adgang til offerets computer eller netværk. Følgende råd kan medvirke til at begrænse omfanget og konsekvenser ved malware:
Inden man sender input til en offentligt tilgængelig chatbot, bør man være opmærksom på, at den afsendte information kan blive misbrugt. Organisationer bør derfor gøre sig klart, i hvilket omfang medarbejdere kan indsætte fortroligt indhold, personfølsomme oplysninger eller kildekode til egne computerprogrammer i chatbotterne. Det vil som minimum være tilrådeligt at tjekke vilkårene for tjenester, som man overvejer at tillade adgang til, og gøre medarbejdere opmærksomme på begrænsninger i brugen. På det punkt adskiller anvendelsen af chatbotter sig ikke væsentligt fra andre offentligt tilgængelige services, der tager imod input fra brugeren som for eksempel websider og søgemaskiner.
Følgende generelle råd bør følges ifm. brugen af chatbotter:
Chatbotter formulerer tekster, som virksomheder og myndigheder kan bruge i det daglige arbejde, for eksempel i sagsbehandling. De tekster, som en chatbot genererer, er ikke altid faktuelt korrekte, og de kan præsentere noget usandt som et faktum, også kaldet ”hallucinationer”. Det er vigtigt at gøre sig klart, at teksterne er udtryk for en algoritmes bud på en plausibel, sammenhængende tekst ud fra en enorm mængde information. Chatbotterne er endnu ikke gode til at dokumentere kilder til den information, der indgår i svarene, og man bør være opmærksom på udfordringer med tendentiøse svar – også kaldet ”bias”.
Følgende råd bør følges:
Chatbot teknologien kan også benyttes til at generere plausible historier, der kan forvrænges og bruges som grundlag for at sprede misinformation og konspirationsteorier, for eksempel via sociale medier. Problemet må forventes at blive større, i takt med at mere indhold med troværdig ordlyd kan genereres automatisk.
Følgende råd bør følges:
Avancerede chatbotter og andre generative AI modeller bliver mere kompetente og i stand til at efterligne menneskelig intelligens i et tempo, som få havde troet muligt. Teknologien har stort potentiale til at revolutionere vores samfund, men der tegner sig også en række udfordringer i forbindelse med cybersikkerhed.
På kort sigt fremhæver CFCS risikoen for at forstærke allerede eksisterende udfordringer. Den overordnede anbefaling er derfor på nuværende tidspunkt, at organisationer bør fokusere på at opretholde et generelt, stærkt cyberberedskab i tråd med CFCS’ grundlæggende rådgivning.