Darktrace waren 82 % der Befragten darüber besorgt, dass Hacker generative KI nutzen können, um betrügerische E-Mails zu erstellen, die nicht von echter Kommunikation zu
unterscheiden sind.
Was aber sind laut aktueller Studie die drei wichtigsten Merkmale, die Mitarbeitende dazu bringen, eine E-Mail für einen Phishing-Angriff zu halten:
- die Aufforderung, auf einen Link zu klicken oder einen Anhang zu öffnen (68%)
- unbekannter Absender oder unerwarteter Inhalt (61%)
- schlechte Rechtschreibung und Grammatik (61 %).
Fast 30 % der befragten Beschäftigten sind schon einmal auf eine betrügerische E-Mail oder SMS hereingefallen. 70% der Angestellten haben in den letzten 6 Monaten einen Anstieg der Häufigkeit betrügerischer E-Mails und SMS festgestellt. 87% der Angestellten weltweit sind besorgt über die Menge an persönlichen Informationen, die online über sie verfügbar sind und für Phishing und andere E-Mail-Betrügereien genutzt werden könnten. Erschwerend kommt hinzu, dass lt. Aussage der Befragten nahezu 79 % der Spam-Filter in Unternehmen fälschlicherweise verhindern, dass wichtige und legitime Informationen ihren Posteingang erreichen. Was bedeutet das im Zusammenhang mit generative KI für die E-Mail-Sicherheit? Stellen Sie sich folgendes Szenario vor: Ihre Mama, sorry, nein. Ihr CEO bittet Sie in einer E-Mail um Informationen. Sie ist in genau der Sprache und dem Tonfall verfasst, den er typischerweise verwendet. Sie enthält sogar eine persönliche Anmerkung, die Sie zuordnen können (Urlaub, Hobby…). Die Untersuchung von Darktrace zeigt, dass 61 % der Getesteten auf schlechte Rechtschreibung und/oder Grammatik reagieren und das als Zeichen dafür interpretieren, dass eine E-Mail betrügerisch ist. Aber diese E-Mail enthält keine Fehler. Rechtschreibung und Grammatik sind perfekt, sie enthält persönliche Informationen und sie ist absolut überzeugend. Aber Ihr CEO hat die E-Mail nicht geschrieben. Sie wurde von einer generativen KI erstellt, die grundlegende Informationen verwendet, die von Cyber-Kriminellen aus Social-Media-Profilen entnommen wurden. Die Verteidiger sind somit ebenfalls mit generativen KI-Angriffen konfrontiert, die linguistisch komplex und völlig neuartig sind und die Techniken und Referenzthemen verwenden, die wir in dieser Ausführung noch nie zuvor gesehen haben. In einer Welt der zunehmenden KI-gestützten Angriffe können wir es nicht länger dem Menschen überlassen, den Wahrheitsgehalt einer Kommunikation zu prüfen. Dies ist jetzt ebenfalls eine Aufgabe für künstliche Intelligenz. KI im Einsatz zur Erkennung von durch KI generierten Phishing E-Mails Selbstlernende KI in E-Mails ist im Gegensatz zu allen anderen E-Mail-Sicherheitstools nicht darauf trainiert was „schlecht“ aussieht, sondern sie lernt die normalen Lebensmuster jeder einzelnen Organisation. Indem sie versteht, was normal ist, kann sie feststellen, was nicht in den Posteingang einer bestimmten Person gehört. E-Mail Sicherheitssysteme machen das zu oft falsch. Mit einem tiefen Verständnis der Organisation und der Art und Weise wie die einzelnen Mitarbeitenden mit ihrem Posteingang interagieren, kann die KI für jede E-Mail bestimmen, ob sie verdächtig ist und bearbeitet werden sollte oder ob sie legitim ist und unberührt bleiben kann. Fazit Wenn Sie eine Information (SMS, WhatsApp, Mail….) erhalten und mit „Mama“ angesprochen werden, obwohl Sie nicht „Mama“ oder keine „Mama“ sind, klicken Sie bitte nicht drauf! Im Zeitalter der „Massendatenverarbeitung“ und der Verbreitung von machine learning unterstützen Angriffs-Methoden, muss man diese Technologien auch zur Abwehr einsetzen. Andersherum müsste man sich fragen, ob Menschen allein wirklich in der Lage sind, extrem schnell in Peta-Byte-Dimensionen Daten nach Auffälligkeiten zu untersuchen und zu vergleichen.