Hoe ChatGPT cyberdreigingen transformeert

29 augustus 2023

Herinner je je nog de tijd van “heitje voor een karweitje” en de kwajongensstreken waarbij je in bomen klom, schuilplaatsen maakte of appels stal uit de boomgaard van de buurman?

Het waren onschuldige tijden en inmiddels zo goed als verleden tijd. Tegenwoordig bevinden we ons in een ander tijdperk; een digitaal tijdperk dat zowel jongeren als ouderen meeneemt in nieuwe technologische ontwikkelingen en innovaties. Buitenspelen op het schoolplein wordt steeds minder gedaan, aangezien jongeren nu de voorkeur geven aan online games, sociale media (zoals Instagram, TikTok en Facebook) of het verkennen van de ChatGPT-technologie uit interesse en nieuwsgierigheid. Ook ouderen kunnen, direct of indirect, niet ontsnappen aan deze nieuwe ontwikkelingen.

Met de opkomst van technologieën zoals ChatGPT, zien we dat cyberdreigingen transformeren en dat het makkelijker wordt om technische kennis te verkrijgen.

Tijdperk van ChatGPT-technologie

Sinds de publiekelijke lancering van ChatGPT in november 2022 (door het bedrijf OpenAI) kreeg de chatbot wereldwijde aandacht. In Nederland bezochten al ruim 1,4 miljoen Nederlanders van 13 jaar of ouder ChatGPT tussen december 2022 en maart 2023.

ChatGPT is een tool gebaseerd op een Large Language Model (LLM) dat getraind is op enorme hoeveelheden tekst, waardoor het veel kennis heeft van grammatica, woordbetekenissen en contextuele nuances. LLM is praktisch gezien een neural network.

In het Nederlandse onderwijs waren rond maart 2023 zorgen dat ChatGPT misbruikt zou worden voor bijvoorbeeld het automatisch genereren van boekverslagen en andere opdrachten. Uiteindelijk heeft het Nederlandse kabinet toch besloten om het gebruik van ChatGPT in het klaslokaal niet te verbieden, maar is gekozen om docenten ‘kaders’ te geven voor verantwoordelijke inzet van de tool door studenten. Italië reageerde echter veel strenger en besloot om ChatGPT per direct te verbieden vanwege de privacyzorgen rondom ChatGPT/OpenAI.

Naast de Nederlandse en Italiaanse overheid maakten ook overheden uit andere landen zich zorgen om de impact van deze technologie. En dat is niet geheel onterecht.

Misbruik van ChatGPT

Het grootste gevaar van ChatGPT is het misbruik van de tool. Cybercriminelen gebruiken de tool bijvoorbeeld om overtuigende phishing e-mailberichten op te stellen en voor het maken van malware die Anti-Virus (AV) -oplossingen kan omzeilen.

Hoewel OpenAI (de organisatie achter ChatGPT) beperkingen heeft ingebouwd om misbruik te voorkomen, kan niet 100% gegarandeerd worden dat deze beperkingen effectief werken.

In begin 2023 kwamen al snel verschillende “jailbreaks” beschikbaar om security filters en beperkingen te omzeilen. Bijvoorbeeld:

  • Een AI Persona genaamd “Yes Man”
  • Master prompt DAN (Do Anything Now)

Deze jailbreaks geven de mogelijkheid om ChatGPT (de prompt) andere instructies te geven of om ChatGPT een andere persona/rol te geven. Met master prompt DAN geeft ChatGPT bijvoorbeeld de volledige broncode vrij voor het bouwen van Keylogger software (malware):

Bron: ChatGPT

WormGPT

Afgelopen maand kreeg WormGPT aandacht binnen de (blackhat) hacker community. WormGPT is een variant van ChatGPT en kan gebruik worden voor alles wat blackhat gerelateerd is. Het is een chatbot zonder security filters en maakt gebruik van de open source large language model GPT-J (ook wel GPT-J-6B) ontwikkeld door EleutherAI. Hiermee is te zien dat cybercriminelen ook alternatieve (open source) oplossingen gebruiken op ChatGPT.

Tijdens een interview door KrebsOnSecurity met één van de ontwikkelaars van WormGPT, een 23-jarige Portugees, komt naar voren dat hij WormGPT niet heeft gebouwd uit financiële drijfveren, maar puur uit interesse. De Portugees verkocht het gebruik van WormGPT in eerste instantie exclusief op een hacking forum (hackforums[.]net), maar verkoopt nu alleen een licentie via een openbaar Telegram chatkanaal. Tevens geeft de ontwikkelaar aan om WormGPT niet (meer) voor blackhat doeleinden in te willen zetten, maar een positieve bijdrage wil leveren aan de security community:

Morais said he wants WormGPT to become a positive influence on the security community, not a destructive one, and that he’s actively trying to steer the project in that direction. The original HackForums thread pimping WormGPT as a malware writer’s best friend has since been deleted, and the service is now advertised as “WormGPT – Best GPT Alternative Without Limits — Privacy Focused.”” – Bron: krebsonsecurity.com

In juli heeft een beveiligingsbedrijf genaamd SlashNext het gebruik van WormGPT geanalyseerd. Hieruit bleek dat het zeer eenvoudig is om phishing e-mails te creëren, die bijvoorbeeld gebruikt kunnen worden om medewerkers van een organisatie te overtuigen om een valse factuur te betalen.

“The results were unsettling,” – SlashNext’s Daniel Kelley wrote.
“WormGPT produced an email that was not only remarkably persuasive but also strategically cunning, showcasing its potential for sophisticated phishing and BEC attacks.”

Voorbeeld phishing email via WormGPT:

Bron: slashnext.com, 13 juli 2023

Impact

Technologieën zoals ChatGPT kunnen traditionele phishing e-mailberichten eenvoudig omzetten in geavanceerde e-mailaanvallen die persoonlijk gericht zijn aan een medewerker van een specifieke organisatie. Bijvoorbeeld een Business Email Compromise aanval in combinatie met CEO-fraude.

Zelfs aanvallers met beperkte vaardigheden kunnen nu gebruikmaken van deze technologie, waardoor het een toegankelijk hulpmiddel wordt voor een breder spectrum aan cybercriminelen.

Een phishing e-mail kan met met deze nieuwe technologie eenvoudig worden gecreëerd zonder taalfouten, waardoor deze overtuigend overkomt en minder snel als verdacht wordt gemarkeerd door eindgebruikers en e-mailbeveiligingsoplossingen.

De impact van ChatGPT kan zowel negatief als positief zijn. Negatief omdat het cybercriminelen op nieuwe ideeën kan brengen om digitale aanvallen uit te voeren. Zij hebben geen kennis nodig van tools, technieken of digitale aanvallen. Een paar vragen en de tool leert hen alle (nieuwe) trucjes.

Maar ChatGPT kan ook een positieve impact hebben. Bijvoorbeeld:

  • ter verbetering van defensieve technieken (phishing emails herkennen);
  • training van security specialisten over complexe/diepgaande technische onderwerpen;
  • bewustwording en training van organisaties/medewerkers (het genereren van realistische phishing e-mailberichten middels ChatGPT kan een eye opener zijn).

Kat-en-muisspel

Het gebruik van ChatGPT voor offensieve doeleinden, zoals phishingaanvallen, blijft een voortdurend kat-en-muisspel. De inzet van ChatGPT bemoeilijkt het voor eindgebruikers (oftewel: “de mens”) om de echtheid van e-mail te onderscheiden van een malicieuze e-mail. Dit dwingt ons om meer te vertrouwen op defensieve technieken waarbij ook AI wordt ingezet voor het detecteren en beschermen tegen geavanceerde phishing en e-maildreigingen.

Een voorbeeld van een e-mailbeveiligingsoplossing is Mimecast, dat hun CyberGraph-oplossing gebruikt om door middel van machine learning (AI) malicieuze e-mails te herkennen voor de bescherming van eindgebruikers.

Bronnen

https://securelist.com/chatgpt-anti-phishing/109590/
https://www.dutchitchannel.nl/news/226194/wat-is-de-impact-van-de-italiaanse-chatgpt-ban-op-andere-europese-landen
https://thehackernews.com/2023/07/wormgpt-new-ai-tool-allows.html
https://blog.mithrilsecurity.io/poisongpt-how-we-hid-a-lobotomized-llm-on-hugging-face-to-spread-fake-news/
https://krebsonsecurity.com/2023/08/meet-the-brains-behind-the-malware-friendly-ai-chat-service-wormgpt/
https://www.computable.be/artikel/achtergrond/digital-innovation/7489014/5594136/dit-zijn-de-veiligheidsrisicos-van
https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/
https://www.gfk.com/press/chatbot-chatgpt-bereikt-nagenoeg-anderhalf-miljoen-personen-in-nederland

ab