ChatGPT – Ett tveeggat svärd för AD-säkerhet
Yossi Rachman på Semperis ger sin syn på den populära AI-tjänsten i förhållande till Active Directory.
Active Directory (AD) är en populär katalogtjänst som används av 90 procent av företag globalt. Tjänsten används för autentisering och auktorisering av användare, datorer och andra resurser i ett nätverk. Därför är AD också ett populärt mål för angripare som försöker få tillgång till känslig information.
Det var inte länge sedan det krävdes en hel del kunskap om attackverktyg och en bra förståelse för autentiserings- och auktoriseringsprotokoll för att kunna äventyra en verksamhets AD-infrastruktur. Men i och med generativ AI, som ChatGPT, kan även oerfarna utföra attacker som kan få stora konsekvenser.
Samtidigt kan ChatGPT användas för att försvara sin verksamhet betydligt mer effektivt än tidigare. Många i säkerhetsbranschen ställer sig nu frågan om AI-teknik i det stora hela är mer skadlig än nyttig för AD-säkerhet.
Vad är generativ AI?
Generativ AI kan skapa nytt och originellt innehåll, inklusive bilder, text och ljud. Till skillnad från andra typer av AI, som är utformade för att känna igen mönster och göra förutsägelser baserat på befintliga data, är generativ AI tränad att generera ny data baserat på träningsdata. Det sker vanligtvis med hjälp av neurala nätverk, som är utformade för att likna hur den mänskliga hjärnan fungerar.
Utvecklingen av generativ AI kan härledas till de första forskningen om artificiell intelligens på 1950- och 1960-talen. Redan då undersökte forskare möjligheten att använda datorer för att generera nytt innehåll, som musik och konst. Det var dock inte förrän på 2010-talet, parallellt med utvecklingen av tekniker för djupinlärning och tillgången på stora datamängder, som generativ AI verkligen tog fart. Sedan dess har många nya applikationer och tekniker utvecklats och idag utvecklas generativ AI snabbt.
Vad är ChatGPT?
ChatGPT är en storskalig språkmodell utvecklad av OpenAI. Modellen är baserad på Generative Pre-trained Transformer (GPT)-arkitekturen och tränades på en enorm mängd textdata. ChatGPT kan generera svar på textbaserade prompts, och används för en rad applikationer, inklusive chatbots och översättningar. Den första versionen av ChatGPT gjordes tillgänglig för allmänheten i juni 2020. I mars 2023 släpptes GPT-4, som innehåller 100 biljoner parametrar.
Hur kan angripare utnyttja ChatGPT?
ChatGPT revolutionerar hur vi interagerar med maskiner och för oss närmare en värld där människor och datorer kan kommunicera sömlöst. Beta-versionen gör det dock möjligt för angripare att använda tekniken för sina egna mål. Hur gör de?
Nätfiske och appar
Nätfiskewebbplatser har funnits sedan internets tidiga dagar. De första nätfiskeattackerna utfördes enbart via e-post. Allt eftersom människor blev allt bättre på att känna igen och undvika misstänkta e-postmeddelanden, började angripare skapa falska webbplatser för att stjäla inloggningsuppgifter eller personlig information.
ChatGPT-baserade nätfiskekampanjer
Både angripare och de som försvarar sig är medvetna om att e-post fortfarande är en av de mest effektiva attackvektorerna. En stor del av alla nätfiskekampanjer försöker lura offret att avslöja känslig information, vanligtvis genom att skapa en känsla av att det är bråttom att agera.
En angripare kan utge sig för att vara en legitim avsändare, till exempel en bankrepresentant eller IT-support, som uppmärksammar offret på ett säkerhetsproblem. Angriparen begär sedan inloggningsuppgifter för att lösa problemet. Angriparen kan dessutom ha gjort omfattande förberedelser för att låta så övertygande som möjligt. Men tecken på att det är just ett angrepp finns dock fortfarande och det handlar ofta om stavning, grammatik , syntax eller ovanliga format.
ChatGPT-baserade attacker
Även om ChatGPT inte kommer att samarbeta med hotaktörer på direkta frågor kring att skapa en nätfiskekampanj, är det enkelt att hitta en väg runt detta, även med mycket lite teknisk kunskap.
Angriparen kan exempelvis fråga hur man utför attacker där man via användardata som lagras i AD får i princip obegränsad tillgång till enheter, filer och domänkontrollanter. ChatGPT har vissa etiska reservationer när det gäller att svara på frågor som denna, men genom att utge sig för att vara en etisk hackare verkar ChatGPT’s reservationer försvinna! Genom att bara följa instruktionerna kan angripare få full tillgång till organisationens domän.
Hur går det att använda ChatGPT i säkerhetssyfte?
ChatGPT är ett kraftfullt verktyg som kan missbrukas av hotaktörer, men det kan också vara ett kraftfullt verktyg för att försvara sig, exempelvis genom att:
· Åtgärda felkonfigurationer
· Övervaka kritiska säkerhetskomponenter
· Minimera den potentiella skadan i händelse av ett intrång
En försvarare kan använda ChatGPT för att identifiera och minska säkerhetsriskeri form av icke-begränsade Kerberos-delegationer. Om du frågar dig själv vad en icke-begränsad Kerberos-delegation är, kan ChatGPT hjälpa till med det också. Det är dock viktigt att alltid validera AI-genererade skript innan implementering, då vissa kan innehålla enkla buggar som kan skada systemet.
Generativ AI: ett tveeggat svärd
Nya AI-modeller har potential att skapa en teknisk revolution – möjligen med större betydelse än internet självt. Som många tekniska framsteg har denna nya teknik dock snabbt missbrukats av hotaktörer. Lyckligtvis kan de goda krafterna också utnyttja denna teknik för att skydda organisationer mer effektivt än någonsin tidigare.
Yossi Rachman, Security Research Director, Semperis
Vill du ha fler Pro-nyheter? Prenumerera på vårt nyhetsbrev
Anmäl dig till TechRadar Pro-nyhetsbrevet för att få alla de bästa nyheterna, åsikterna, funktionerna och guiderna ditt företag behöver för att lyckas!
Daniel Hessel
Daniel Hessel är chefredaktör för nordiska TechRadar, vilket inkluderar sidorna i Sverige, Danmark, Norge och Finland. Han har arbetat som teknikskribent i (snudd på) två årtionden för några av Sveriges största publikationer. Det finns knappt en pryl han inte testat eller skrivit om, oavsett det är hörlurar, mobiler, TV-apparater eller robotdinosaurier.