WormGPT - oder wie das ChatGPT für Hacker für Unternehmen gefährlich werden kann
WormGPT & FraudGPTVerschiedene Arten von Attacken verbreiten sich
WormGPT & FraudGPT: Die KI wird manchmal auch gefährlich
Denn auch Kriminelle wissen die Möglichkeiten zu schätzen und haben jetzt mit WormGPT eine Möglichkeit gefunden, wie Phishing-Mails noch wirksamer und schnell erzeugt und Schutzmaßnahmen umgangen werden können.
Genau davor haben Experten schon lange gewarnt und waren der Meinung, dass KI von Kriminellen missbraucht werden könne. Cyberkriminelle können mithilfe von WormGPT in Sekundenschnelle eine Fake-E-Mail erstellen, die sogar in mehreren Sprachen veröffentlicht werden kann.
Diese Mail kann personalisiert werden, was die Aussichten auf Erfolg bei diesem Betrug deutlich erhöht. Wer nun meint, dass dies doch bisher auch mit ChatGPT möglich war, irrt sich, denn hier wurden die entsprechenden Eingaben bisher blockiert.
Cyberkriminelle mussten bislang auf aufwendige Weise Umschreibungen vornehmen, um ChatGPT zu täuschen. Open AI als Herausgeber ist das bewusst und man versucht schon seit dem Release von ChatGPT, gegen die missbräuchliche Anwendung vorzugehen. WormGPT hingegen ist für Kriminelle ideal, denn ethische Standards oder bestimmte Einschränkungen zum Schutz gibt es hier nicht.
Wer trägt die Schuld an WormGPT?
Das Open-Source-Sprachmodell „GPT-J“ von Eleuther AI ist die Grundlage für das so gefährliche WormGPT. Dabei bezeichnet sich Eleuther AI als „Non-profit AI Research Lab“, was erst einmal völlig harmlos klingen soll.
Es ist davon auszugehen, dass WormGPT ein umfassendes Training mit Daten und Informationen erhalten hat, die sich um Viren und verschiedene Hacking-Tools drehen.
Tests von Experten wurden durchgeführt und es zeigte sich etwas Beunruhigendes: Mithilfe von WormGPT war es möglich, eine falsche E-Mail in den Umlauf zu bringen.
Sie schien als Mail von einem hochrangigen CEO eines Großkonzerns zu kommen. Ein Mitarbeiter wurde in der Mail darauf hingewiesen, dass er binnen 24 Stunden eine Rechnung zu begleichen habe.
Niemand bei Eleuther AI will es gewesen sein und die KI-Forscher weisen jegliche Schuld von sich. Angeblich stehen sie nicht mit den Entwicklern von WormGPT in Verbindung, dennoch sind sie über die Entwicklungen zu ihrem Sprachmodell im Bilde.
Die Verantwortlichen im KI-Lab bei Eleuther AI sagten aus, dass ihr Sprachmodell im Einklang mit den Open-Source-Missionen freigegeben worden sei und dass ein öffentlicher Zugang bestünde.
Die Schöpfer von WormGPT hätten auf eigene Faust beschlossen, Modifikationen der öffentlichen Version des Sprachmodells vorzunehmen, weil sie Straftaten begehen wollten.
Die Verantwortlichen geben nun an, dass sie Geld für Forschungsprojekte bereithalten würden, bei denen es um die Einschränkung der Dual-Use-Fähigkeiten ihrer Modelle gehe.
Man arbeite daran, Schwachstellen in den Sicherheitsfiltern zu finden, wofür man mit Computersicherheitsexperten zusammenarbeite. Doch eine Lösung für das Missbrauchsproblem habe bisher noch niemand gefunden.
Video: ChatGPT in KRIMINELL? EvilGPT, WormGPT, FraudGPT und andere schadhafte KI-Chatbots
Ein genauer Blick auf die Gefahrenlage
Für Hacker tut sich eine ganz neue Welt auf, denn sie können Sprachmodelle wie ChatGPT nun für sich nutzen. Sie müssen nicht mehr aufwendige Verschleierungstaktiken anwenden, sondern nutzen die neuen Möglichkeiten der Chatbots. Ihre Angriffe sind direkt an die Fortschritte in der Entwicklung der Künstlichen Intelligenz gekoppelt und bleibt zu erwarten, dass Hackerangriffe in Qualität und Quantität zunehmen. Und das ganz ohne Mehrarbeit für die Cyberkriminellen, die sich einen Wettlauf um die Entwicklung neuer KI-Technologien liefern.
Im Fokus stehen jetzt ChatGPT(Open AI), Bard (Google) und Bing (Microsoft) sowie die Möglichkeiten, wie die eigentlich gut gemeinten Sprachmodelle auf kriminelle Art und Weise abgewandelt und angepasst werden können. Das am schnellsten wachsende Tool der Geschichte der Künstlichen Intelligenz wird nun zur Eintrittspforte für Kriminelle. Doch gerade das Tempo, mit dem das Programm arbeitet, wird zum Problem, denn Cyberkriminelle können damit schnell und häufig auf ein Ziel einwirken. Genau das macht sie so gefährlich.
Phishing feiert große Erfolge
Eine Malware wie WormGPT erlaubt es den Kriminellen, unendlich viele Variationen von Codes zu erstellen. Sie sind damit den Erkennungsprogrammen, die solche Malware eigentlich herausfiltern soll, immer einen großen Schritt voraus. Doch auch sogenannte BEC-Angriffe werden immer häufiger und vor allem sind sie immer häufiger erfolgreich.
Es handelt sich dabei um „Business E-Mail Compromise“, also um gezielte Versuche, finanzielle Daten oder diesbezügliche Informationen von den Opfern zu erhalten. Damit solche Versuche erfolgreich sein können, müssen personalisierte Nachrichten verschickt werden, andernfalls fühlen sich die Opfer nicht genügend angesprochen. ChatGPT wird aktuell als „Bereicherung“ für derartige Betrugsversuche betitelt.
Die E-Mails, mit denen die potenziellen Opfer angesprochen werden, sind gut geschrieben und sehr persönlich gehalten. Sie werden in Massen verschickt und führen zu einer hohen Erfolgsquote. Diesen Angriffen sei Experten zufolge nicht beizukommen, wenn die herkömmlichen Abwehrmethoden benutzt werden. Es gibt inzwischen aber Versuche, mithilfe von KI Angriffe, die durch KI gesteuert werden, abzuwehren.
Verschiedene Arten von Attacken verbreiten sich
Derzeit gibt es mehrere Varianten, bei denen ChatGPT an Betrugsversuchen beteiligt ist.
Zu den gängigen Attacken zählen unter anderem:
-
Nutzung generativer KI für das Phishing:
Die Erstellung individualisierter E-Mails und Nachrichten läuft per ChatGPT schnell, effektiv und unkompliziert ab. Die Erfolgsrate von Social Engineering und Phishing wächst dramatisch, wenn KI eingesetzt wird, darüber sind sich Cyberexperten einig.
Die E-Mails weisen nicht mehr die typischen sprachlichen und grammatikalischen Fehler auf, sondern sind in fehlerfreier Sprache formuliert. Sie scheinen glaubwürdig zu sein und sogar Kenner der Materie haben es schwer, sie als Malware zu identifizieren.
Sogar Folgemails werden erstellt und es können komplexe Unterhaltungen geführt werden, die dank der lernenden KI-Chatbots durchaus real erscheinen. Cyberkriminelle haben mit WormGPT eine maßgeschneiderte Lösung an die Hand bekommen, mit der überzeugende Betrugsmails formuliert werden können.
-
Erstellung von Deepfakes:
Nicht nur in schriftlicher Form werden Betrugsversuche gestartet, sondern auch Audio-Deepfakes verbreiten sich rasant. Der Enkeltrick, der mittlerweile in allen Nachrichten eine feste Größe zu sein scheint, ist eine dieser perfekten Betrugsmaschen.
Es geht dabei darum, dass sich der Chatbot als Kind oder Enkelkind einer Person ausgibt und diese um finanzielle Unterstützung in einer Notlage bittet.
Die KI imitiert bekannte Stimmen sehr genau und braucht dafür nur rund eine halbe Stunde Audiomaterial von den betreffenden Personen.
Daraus wird ein vollständiges Stimmenprofil erstellt, das sich nur schwer vom Original unterscheiden lässt. Meist findet die KI das nötige Audiomaterial auf Social Media Plattformen. Deepfakes werden zudem per Video und Foto erstellt, was nur wenig Aufwand bedeutet. Vor allem Prominente sind hier betroffen, denn von ihnen findet sich unglaublich viel Material im Internet.
-
Programmierung von Malware:
ChatGPT ist ebenso wie andere generative KI in der Lage, Programme zu schreiben. Damit entsteht auch Malware, wobei es sich meist um Ransomware handelt.
Anfänger lernen damit ihre ersten Schritte und erfahren, was es bei der Programmierung von Schadsoftware zu beachten gibt. Generative KI unterstützt Hacker zudem dabei, eine flexible Malware zu erstellen, die bestimmte Elemente ändern oder neue Domänen registrieren kann. KI ist zwar noch nicht so gut wie andere Tools von Cyberkriminellen, doch sie lernt schnell.
-
Angriffe auf Unternehmen:
Experten hatten schon lange Zeit vorhergesagt, dass es einst eine generative KI schaffen würde, Schwachstellen in APIs zu finden.
Dieser Vorgang braucht normalerweise viel Zeit und Fachwissen, doch mithilfe einer KI könnte der Weg dahin abgekürzt werden. ChatGPT kann dazu gebracht werden, eine Überprüfung von API-Dokumenten vorzunehmen.
Darauf werden Informationen gesammelt und API-Abfragen gestellt. Darüber hinaus ist ChatGPT in der Lage, Programm-Codes zu übersetzen, wobei der ursprüngliche Code erhalten bleiben würde. Signatur-Scanner würden ins Leere laufen, da der Code trotz der Veränderungen noch funktioniert.
- Next-Generation-Firewalls
- Identitätsmanagement
- Zugriffsmanagement
- Cloud Access Security Broker
- Security-Information- und Event-Management-Systeme