Künstliche Intelligenz verändert alle Branchen – Cyber Security bildet dabei keine Ausnahme. Während KI die Automatisierung der Bedrohungserkennung und die Echtzeitanalyse großer Datenmengen ermöglicht, wird sie zunehmend auch zu einem mächtigen Werkzeug für Cyberkriminelle. Immer häufiger setzen diese KI ein, um ihre Techniken zu verfeinern, Sicherheitsmaßnahmen zu umgehen und ihre Angriffe zu skalieren
ChatGPT: Ein Beispiel für missbräuchliche KI-Nutzung
Mit dem Anstieg der missbräuchlichen Nutzung von KI entwickeln KI-Anbieter immer neue Schutzmechanismen, um einem solchen Missbrauch entgegenzuwirken. Dennoch bleiben Herausforderungen bestehen. In diesem Zusammenhang warnte Sam Altman, CEO von OpenAI, bereits 2023 vor den Risiken dieser Modelle für die Cybersicherheit: „Jetzt, da sie besser darin werden, Computercode zu schreiben, könnten sie für offensive Cyberangriffe verwendet werden.“ Die Warnung ist eindeutig: Mit dem Fortschritt der KI-Fähigkeiten steigt auch das Risiko ihrer Zweckentfremdung.
Im April 2023 zeigte der Forscher Aaron Mulgrew von Forcepoint, wie ChatGPT manipuliert werden kann, um nicht nachweisbare Malware zu generieren. Diese Manipulation erfolgte schrittweise – durch fragmentierte und mehrdeutige Eingaben, die die eingebauten Sicherheitsfilter des Modells umgingen. Der resultierende Code war in der Lage, ein System nach Word- oder PDF-Dateien zu durchsuchen, deren Inhalte zu extrahieren und mithilfe von Steganografie-Techniken in einem Bild zu verstecken. Dieses scheinbar harmlose Bild konnte anschließend an einen entfernten Server gesendet werden – ohne von Antivirenprogrammen oder klassischen Erkennungssystemen bemerkt zu werden, die es lediglich als Bilddatei einstufen würden.
Offensive-KI-as-a-Service im Darknet
Auf Marktplätzen im Darknet wie Empire Market, World Market oder Versus tauchen immer mehr KI-basierte Tools auf. Dazu gehören FraudGPT und WormGPT, zwei Modelle ohne ethische Schutzmechanismen. Sie präsentieren sich als Alternativen zu ChatGPT und wurden gezielt für kriminelle Zwecke entwickelt.
Eine Untersuchung von Trustwave zeigt, dass diese Modelle weit über einfache „entsicherte“ Varianten hinausgehen: Sie werden teils mit Datenbanken trainiert, die gezielt dafür konzipiert wurden, Hacking zu erleichtern. FraudGPT wird beispielsweise in geschlossenen Foren als multifunktionales Cybercrime-Tool beworben: Es kann Malware-Code generieren, gezielte Phishing-Kampagnen erstellen, Injektionsskripte schreiben und Sicherheitslücken automatisiert aufspüren.
Diese KI-Tools ermöglichen es selbst technisch unerfahrenen Nutzern, ausgeklügelte Angriffe durchzuführen, die bisher nur erfahrenen Hackern vorbehalten waren. In einem TEDx-Vortrag mit dem Titel "Cybersecurity in the Age of AI" zeigt der Experte Adi Irani, wie eine Person ohne Programmierkenntnisse eine KI dazu bringen kann, polymorphe Malware zu erzeugen – also Schadcode, der sich dynamisch verändert, um Erkennungssysteme zu umgehen. Fähigkeiten, die einst Elite-Hackern vorbehalten waren, sind heute über einfache Chat-Interfaces zugänglich.
Irani verdeutlicht außerdem, wie KI beim Social Engineering eingesetzt wird. Durch das Einfüttern von zugänglichen Social Media-Daten lassen sich hochgradig überzeugende Phishing-Skripte zum sofortigen Mailversand generieren. Diese automatisierte Personalisierung wirkt sich konret aus: Laut einer Studie von AAG IT steigt die Erfolgsquote von Phishing-Angriffen von 18 % auf 51 %, wenn die Nachrichten auf die Zielperson zugeschnitten sind.
Wie KI auch die Abwehr stärkt
Als Antwort auf die zunehmenden Bedrohungen wird KI zu einem unverzichtbaren Werkzeug für Cybersicherheitsexperten. Sie verbessert die Analysefähigkeit, unterstützt fundierte Entscheidungen und ermöglicht proaktive Verteidigung.
Durch Machine-Learning-Algorithmen kann KI kontinuierlich riesige Datenmengen verarbeiten, schwache Signale erkennen, anormales Verhalten identifizieren und Kompromittierungsmuster aufdecken.
Moderne Systeme entwickeln sich hin zu einem prädiktiven Ansatz: Sie modellieren das Verhalten von Nutzern, korrelieren verschiedenste technische Indikatoren und identifizieren wiederkehrende Mikro-Anomalien, um Angriffe vorauszusehen, bevor sie stattfinden – besonders effektiv bei komplexen und verdeckten Bedrohungen.
Zudem fungiert KI als Produktivitätsbooster. Sie automatisiert zeitaufwändige Routineaufgaben wie Regeldefinition, Konfigurationen oder Testszenarien und verschafft Sicherheitsteams so mehr Raum für strategische Analyse und gezielte Reaktion auf Vorfälle.
Künstliche Intelligenz ist ein zentraler Bestandteil des technologischen Fundaments von Pradeo. Sie kommt in sämtlichen Lösungen des Unternehmens zum Einsatz – von mobiler bis hin zu App-Sicherheit – sowohl in den Angeboten von Pradeo als auch Yagaan.