Werden Cyberkriminelle mit ChatGPT noch gefährlicher?

Werden Cyberkriminelle mit ChatGPT noch gefährlicher?

22. Februar 2023 0 Von Horst Buchwald

Werden Cyberkriminelle mit ChatGPT noch gefährlicher?

Berlin, 22.2.2023

Kann ChatGPT in Zukunft mehr für die Cybersicherheit leisten oder haben die Cyberkriminellen nun ein Tool zur Verfügung, mit dem sie ihre Ziele noch effektiver realisieren können?

Zunächst muss man darauf hinweisen, dass die Nutzungsbedingungen von OpenAI für ChatGPT die Generierung von Malware, Ransomware, Keyloggern, und Viren ausdrücklich verbieten. Das hält die „echten Profis“ jedoch nicht auf. Insofern war es keine Überraschung, dass die Untergrundforen sich ziemlich rasch mit Tipps füllten, wie man ChatGPT nutzen kann, um Malware , Phishing – Emails und mehr kompilieren kann. Die Security -Firma Checkpoint hat die Ergebnisse analysiert und kam zu dem Schluss: KI-Tools werden die Cyberangriffe nicht revolutionieren also völlig neue Arten von Angriffen hervorzaubern. Aber sie könnten helfen, böswillige Kampagnen effizienter durchzuführen.

Phishing-Angriffe sind die häufigste Komponente böswilliger Hacking- und Betrugskampagnen. Unabhängig davon, ob Angreifer E-Mails senden, um Malware oder Phishing-Links zu verteilen, oder um ein Opfer davon zu überzeugen, Geld zu überweisen- die E-Mail ist das Schlüsselinstrument bei der anfänglichen Nötigung.

Diese Abhängigkeit von E-Mails bedeutet, dass Banden einen stetigen Strom klarer und nutzbarer Inhalte benötigen. In vielen Fällen – insbesondere beim Phishing – besteht das Ziel des Angreifers darin, einen Menschen zu überreden, was er gar nicht oder normalerweise nicht machen würde – z.B. Geld zu überweisen. Glücklicherweise sind viele dieser Phishing-Versuche derzeit leicht als Spam zu erkennen. Aber ein effizienter automatisierter Texter könnte diese E-Mails überzeugender machen.

Cyberkriminalität ist eine globale Industrie, in der Kriminelle in allen möglichen Ländern Phishing-E-Mails an potenzielle Ziele auf der ganzen Welt senden. Das bedeutet, dass die Sprache ein Hindernis sein kann, insbesondere für die ausgefeilteren Spear-Phishing-Kampagnen, die darauf angewiesen sind, dass die Opfer glauben, sie hätten es mit einem vertrauenswürdigen Kontakt zu tun. Das wird er jedoch nicht annehmen, wenn er mit einem Kollegen spricht, der Probleme hat- z.B. mit der Sprache, oder wenn die E-Mails voll sind von uncharakteristischen Rechtschreib- und Grammatikfehlern oder merkwürdiger Zeichensetzung. Darum der Hinweis: russsische Kriminelle haben Schwierigkeiten mit der englischen Sprache.

Aber wenn die KI richtig ausgenutzt wird, könnte ein Chatbot verwendet werden, um Text für E-Mails in der vom Angreifer gewünschten Sprache zu schreiben.

Theoretisch gibt es Schutzmaßnahmen, die Missbrauch verhindern sollen. Beispielsweise erfordert ChatGPT, dass Benutzer eine E-Mail-Adresse registrieren, und erfordert außerdem eine Telefonnummer, um die Registrierung zu überprüfen.

Und während ChatGPT sich weigert, Phishing-E-Mails zu schreiben, ist es möglich, es zu bitten, E-Mail-Vorlagen für andere Nachrichten zu erstellen, die häufig von Cyberangreifern ausgenutzt werden. Diese Bemühungen können Meldungen umfassen, wie z. B. dass ein Jahresbonus angeboten wird, ein wichtiges Software-Update heruntergeladen und installiert werden muss oder ein angehängtes Dokument dringend eingesehen werden muss.

Außerdem: E-Mail ist unser größtes Produktivitätstool. Aus diesem Grund ist Phishing für alle so gefährlich.