Advarsel! ChatGPT brukes til å skape skadevare

Et abstrakt bilde som illustrerer digital sikkerhet.
Bilde: Shutterstock) (Foto: Shutterstock)

ChatGPT, verdens mest populære chatbot, har kjempekrefter som utnyttes av ondsinnede individer for å skape nye typer skadevare.

Datasikkerhetsfirmaet WithSecure har bekreftet at de har funnet eksempler på skadevare som er skapt av den beryktede AI-tekstgeneratoren ute i det fri. Noe som gjør ChatGPT spesielt farlig er at den kan generere et ubegrenset antall skadevare, noe som gjør dem vanskelige å oppdage.

Ondsinnede aktører kan enkelt og greit gi ChatGPT eksempler å eksisterende skadevarekode og instruere programmet til å skape nye varianter av dem. Dermed er det blitt mulig å skape langt mer skadevare på betydelig kortere tid, med langt mindre ekspertise og innsats enn før.

Til godt og ondt

Denne nyheten kommer mens man er diskuterer om og hvordan AI skal reguleres, slik at man kan forhindre det i å benyttes med onde hensikter. Da ChatGPT ble lansert og tok verden med storm i november 2022, fantes det i realiteten ingen grenser for hva det kunne brukes til. Allerede i november ble programmet kapret til å skrive ondsinnede e-poster og dokumenter.

I modellen finnes det enkelte beskyttelsesmekanismer. Disse skal hindre ondsinnet ledetekst i å bli skapt, men det finnes naturligvis måter trusselaktører kan benytte for å omgå disse hindringene.

Juhani Hintikka, CEO his WithSecure, fortalte Infosecurity at AI vanligvis er blitt benyttet innen datasikkerhet, for å finne og luke bort skadevare skapt av trusselaktører.

Nå derimot, når kraftige AI-verktøy som ChatGPT er gratis tilgjengelig, er styrkeforholdet snudd. Verktøy for fjerntilgang er blitt benyttet med onde hensikter, og det samme gjelder nå også AI.

Tim West, leder for trusseletterretning hos WithSecure, la til at «ChatGPT vil støtte programvareutvikling, enten den er god eller ond, og den vil gjøre det enklere for trusselaktører å utvikle skadevare.»

Selv om nettfiske-epostene som skrives av ChatGPT vanligvis avsløres av mennesker, kan utviklingen av språkmodellene (LLM) med tiden gjøre det vanskeligere å unngå å falle for slik svindel, ifølge Hintikka.

Dessuten vil den økende og urovekkende suksessen til løsepengevirus bidra til at trusselaktører øker trykket og blir mer organiserte, få en bedre forståelse av hva kunstig intelligens kan utrette og gjennomføre enda flere vellykkede angrep.

Med utsikter til hva som vil utspille seg i datalandskapet i tiden fremover, konkluderte Hintikka med at «dette vil bli en kamp mellom god AI og ond AI».

Geir Tandberg Steigan

Skribent, forfatter og illustratør med en spesiell forkjærlighet for produkter og brukergrensesnitt fra Apple. 

Med bidrag fra