Gå direkt till innehåll

Nyhet -

Kapprustning inom AI för att försvara data mot cyber­attacker

Med AI kan maskiner lära sig att göra saker som är långt över mänsklig förmåga. Tekniken kan användas för såväl goda som onda avsikter och i dagsläget pågår en kapprustning mellan dem som vill skydda respektive angripa data med hjälp av AI. Det visar en rapport från FOI.

Artificiell intelligens, AI, handlar om att automatisera uppgifter som människor tidigare har varit bäst på att utföra. AI ses som lösningen på många framtida utmaningar men tekniken kan också missbrukas i brottsligt syfte, som exempelvis vid dataangrepp. Även om detta fortfarande är relativt ovanligt, har FOI:s forskare hittat några olika fall där AI har använts vid cyberattacker. Ett exempel är AI-programmet ”CyberLover” som automatiskt har skapat profiler av människors beteenden på dejtingchattar och skickat individanpassade meddelanden med skadliga länkar till chattens medlemmar.

Vidare finns det AI som kan passera så kallade Turingstester, en typ av säkerhetsåtgärder eller ”captchas” där användaren ska bevisa att den inte är en maskin utan en människa.

– Captchas handlar om att du får ett antal bilder och ska markera dem som innehåller till exempel bilar. Eller så får du bokstäver som ser konstiga ut och ska skriva in vilka de är. AI kan agera som en människa och passera flera olika sådana här tester för att komma åt och angripa sidor, säger Erik Zouave, analytiker på FOI:s avdelning för försvarsanalys.

Gäller att ha beredskap

Genom sin förmåga att samla ihop och analysera data snabbare än människan kan AI också användas för att skanna av information om sårbarheter, som läggs upp på internet.

– AI hittar enkelt underrättelser som en antagonist vill ha. För att dölja ett dataingrepp kan AI också härma beteendemönstret i ett angripet nätverk så att det utåt verkar som att nätverket beter sig som vanligt, förklarar Erik Zouave.

På marknaden finns idag flera AI-stödda cybersäkerhetsverktyg. Samtidigt visar forskningen att säkerhetslösningarna inte alltid är tillräckliga för att avskräcka AI-stödda angripare. Istället pågår en kapprustning mellan dem som vill skydda data och dem som vill angripa den. I varje fall på vetenskaplig nivå där det finns dels forskare som försöker utveckla olika skydd, dels forskare som låtsas vara antagonister och gör allt för att ta sig förbi dem, båda med hjälp av AI.

– I det här tidiga skedet kan vi inte ta för givet att det kommer gå att skydda sig mot AI med hjälp av AI. Istället gäller det för försvarare att prioritera åtgärder mot sårbarheter som kan angripas automatiserat i stor skala. Nu är vi snart i en sådan värld där vi rimligen kommer att börja se mer av sådana här attacker så därför är det viktigt att ha en beredskap för hur de ska bemötas, säger Erik Zouave.

Läs rapporten

Ämnen

Kontakter

Maria Hugosson Bygge

Maria Hugosson Bygge

Presskontakt Pressansvarig Pressansvarig 073 3713838
Albert Hager Bernats

Albert Hager Bernats

Presskontakt Kommunikatör 0708 586 657

FOI forskar för en säkrare värld

FOI är ett av Europas ledande forskningsinstitut inom försvar och säkerhet. FOI är en statlig myndighet under Försvarsdepartementet och merparten av verksamheten är uppdragsfinansierad. Kärnverksamheten är forskning, teknikutveckling och studier.

FOI har ungefär 1 200 anställda. Cirka 850 av dessa är forskare på akademisk nivå. Majoriteten av FOI:s uppdrag är offentligt finansierade. Merparten av finansieringen kommer via uppdrag från Försvarsmakten, Försvarets materielverk (FMV) samt departement och myndigheter.

FOI - Totalförsvarets forskningsinstitut
Gullfossgatan 6
164 90 Kista
Sweden