Berlin - Neulich eine Pipeline, dann das irische Gesundheitssystem, zwischendurch die TU Berlin und jetzt das belgische Innenministerium. Wer die Nachrichten verfolgt, erfährt inzwischen nahezu täglich von massiven Hackerangriffen. Experten sprechen nicht selten von ausgeklügelten und zielgerichteten Angriffen. 

Die Nachrichten machen deutlich, wie anfällig die digitale Infrastruktur geworden ist. Und diese Angriffe machen Unternehmen und Behörden schwer zu schaffen. Laut einem Bericht des IT-Sicherheitskonzerns McAfee kosten Cyberattacken die Wirtschaft eine Billion Dollar im Jahr – das ist gut ein Prozent des globalen BIP. Der spektakuläre Pipeline-Hack in den USA war womöglich nur ein Vorgeschmack auf künftige Cyberattacken. Denn schon bald könnten Cyberkriminelle ihre Feuerkraft mit Künstlicher Intelligenz (KI) erhöhen.

Im August 2016 veranstaltete die Militärforschungsbehörde Darpa im Paris Hotel in Las Vegas die erste Cyber-Grand-Challenge. Im Rahmen der Hackerkonferenz Defcon traten sieben Server zu einem Wettbewerb an: Die Hochleistungsrechner, ausgestattet mit 1000 Intel-Prozessoren und 16 Terabyte RAM, sollten Schwachstellen in einem Programmcode ausfindig machen. Während die flüssigkeitsgekühlten Supercomputer heiß liefen, verfolgten die Softwareingenieure in dem Ballroom den Vorgang auf einem Bildschirm.

Die Maschine „Rubeus“, die der Rüstungskonzern Raytheon ins Rennen geschickt hatte, bediente sich einer speziellen Technik, die das Computerprogramm mit Daten flutete, bis dieses abstürzte. Die Beobachter rieben sich die Augen: Die Hacking-Bots konnten Sicherheitslücken nicht nur zum Teil schneller als Menschen finden, sondern auch eigenständig schließen. „Hacker müssen nicht mehr menschlich sein“, kommentierte das Technik-Magazin Wired. 50 Millionen Dollar hatte die Firma für den Wettbewerb ausgelobt, an das Gewinnerteam wurden zwei Millionen Dollar ausgeschüttet.

Die Pentagon-Agentur investiert Milliarden in die Cybersicherheit. 2018 hat die Behörde am Militärstützpunkt Fort Meade für 520 Millionen Dollar ein Cyber-Abwehrzentrum errichtet. In dem streng geheimen Militärbunker sollen 200 Computerexperten die Cybersicherheit des Landes verteidigen: Schwachstellen aufdecken bedeutet in der Regel aber auch, gleichzeitig potenzielle Angriffsziele des Gegners identifizieren. Doch den Militärstrategen geht das nicht schnell genug. Das Pentagon arbeitet daher an einem Programm, das menschliche Hacker durch KI-Systeme ersetzen will. Selbstlernende Systeme, sogenannte Machine-Learning-Algorithmen, könnten autonom Cyberattacken durchführen. Der Code als Waffe.

Diese Systeme sind für den Gegner nicht ausrechenbar, was sie als Angriffsvariante interessant macht. Aber auch gefährlich. Denn die Programmierer können nicht jeden einzelnen Schritt nachvollziehen – die Systeme sind schwer zu testen. Mayhem etwa, der glühende Serverschrank mit den Neonlichtern, hörte inmitten eines Spiels einfach auf – so wie vor einigen Jahren der Spielcomputer, der angesichts der drohenden Niederlage bei Tetris einfach pausierte. Um wenig später von allein wieder anzuspringen.

Solche unvorhergesehenen Situationen können auch inmitten eines Angriffs eintreten. Machine-Learning-Algorithmen könnten bei einem Entdeckungsereignis dazulernen und ihr Verhalten oder sogar ihren Code ändern, um beim nächsten Angriff unerkannt zu bleiben. Man stelle sich vor, in die iranische Atomanlage in Natans wäre 2010 kein Computerwurm, sondern ein Bot eingeschleust worden. Was, wenn die KI vom Skript abgewichen wäre? Wenn sie die Kühltürme abgeschaltet hätte? Könnte eine abirrende KI einen Super-GAU verursachen? Derlei Szenarien haben Cybersicherheitsexperten längst durchgespielt.

Was die Militärstrategen besonders beunruhigt: Die Angriffstools könnten in falsche Hände geraten. Die Schadsoftware Wannacry, die im Mai 2017 200.000 Computer in über 150 Ländern auf der Welt lahmlegte, war ein Angriffswerkzeug aus dem Waffenschrank der NSA. Wenige Wochen vor dem Angriff hatte die Hackergruppe „Shadow Brokers“ eine Spionagesoftware der NSA geleakt, die Schwachstellen in Windows ausnutzte. Und genau das machten sich die Angreifer zunutze. Die Entwicklung von Staatstrojanern ist daher ein Tanz auf der Rasierklinge, weil sie bekannte Sicherheitslücken bewusst offenlässt.

Der renommierte Sicherheitsforscher Bruce Schneier warnte jüngst in einem Aufsatz, dass KI-Systeme die Gesellschaft kompromittieren könnten: Zum einen würden KI-Systeme dazu benutzt, uns Menschen zu hacken. Zum anderen würden KI-Systeme selbst zu Hackern werden, indem sie Verwundbarkeiten in sozialen, ökonomischen und politischen Systemen finden und diese „mit noch nie dagewesener Geschwindigkeit, Größenordnung und Auswirkung“ ausnutzen könnten. Das Betriebssystem Windows 10 besteht aus zehn Millionen Zeilen Programmiercode. Ein Computer kann sich rasend schnell durch den Code wühlen und Lücken identifizieren. Dass die KI dazu in der Lage ist, hat die Cyber-Grand-Challenge 2016 eindrucksvoll vor Augen geführt.

Der Informatik-Professor Giuseppe Ateniese vom Stevens Institute of Technology hat in einer Studie demonstriert, wie sich mithilfe einer KI Passwörter knacken lassen. Passwörter wie „hallo“ oder „1234“, die sich viele Menschen trotz aller Warnungen noch immer geben, sind für Computer längst keine Herausforderung mehr. Wenn Sonderzeichen hinzukommen und die Schlüssel länger werden, wird es komplizierter. Aber auch das ist für Computer kein großes Problem. Der Forscher trainierte ein neuronales Netz, das anhand einer Datenbank von Passwörtern Muster extrahierte und daraus menschliche Passwortstrategien erlernte, etwa Wortfolgen oder numerische Sequenzen. Mit dem Tool konnten zwölf Prozent der Passwörter aus einem Datensatz des Karrierenetzwerks Linkedin geknackt werden. Das Werkzeug könnte helfen, Nachrichten von Terroristen zu entschlüsseln. Doch natürlich rüsten auch Terroristen und Cyberkriminelle auf. Denn: Der Code ist die Waffe des kleinen Mannes. Man braucht heute keine teuren Raketen oder Schnellfeuerwaffen mehr auf dem Schwarzmarkt besorgen – kritische Infrastrukturen lassen sich bequem vom eigenen Rechner aus sabotieren.

Die EU-Kommission hat in ihrem „Vorschlag zur Regulierung eines europäischen Ansatzes für Künstliche Intelligenz“ jüngst darauf hingewiesen, dass „Hochrisiko-KI-Systeme“ ein „angemessenes Niveau an Genauigkeit, Robustheit und Cybersicherheit“ benötigen. Wenn auch nur irgendwo eine Lücke ist und Cyberkriminelle auf das Arsenal zugreifen könnten, könnten sich KI-gestützte Cyberwaffen auch gegen die eigene Bevölkerung richten.