Was ist Künstliche Intelligenz überhaupt? 
Steve Wozniak, der Apple-Mitbegründer, meint, dass eine Maschine mindestens Kaffee kochen können muss, um als intelligent zu gelten. Damit ist nicht gemeint, der Kaffeemaschine nur einen Startbefehl zu geben. Es geht darum, alle Handlungsschritte vom Suchen des Kaffeepulvers bis zum Einschenken in die Tasse selbstständig auszuführen.

Wie weit ist die KI-Forschung denn inzwischen? 
Alles, was bisher erreicht wurde, ist maschinelles Lernen. Als KI bezeichnet man das, was der Computer eigenständig machen kann. Eine vollkommen autonome Maschine würde Neues schaffen, sich selbst weiterentwickeln – ohne dass Menschen eingreifen müssten. Bisher sind die Algorithmen von Menschen geschrieben, die Maschinen nutzen sie. Manchmal kommen dabei seltsame Ergebnisse heraus. Wenn beispielsweise bei der Bild-Erkennung ein Zug gesucht wird, kann es sein, dass Fotos von Schienen gezeigt werden. Warum? Bei der Mustererkennung haben die Programme erkannt, dass die Züge auf Fotos immer anders aussehen, weil sich ein ICE von einer Dampflok deutlich unterscheidet. Aber fast alle Züge fahren auf Gleisen – und die sehen nahezu gleich aus. Also halten die Algorithmen Gleise für Züge, weil sie das Wesen des Zuges nicht erkennen.

Wie gehen Computer eigentlich vor? 
Es gibt drei Arten, Computer intelligenter zu machen. Die älteste Form ist der einfache Algorithmus: Man sagt einem Computer genau, was er zu tun hat. So funktionieren Taschenrechner. So haben früher auch Übersetzungsprogramme gearbeitet. Die Programmierer konnten nur ein Wort für die Übersetzung auswählen, die Fehlerquote war hoch. Die zweite Möglichkeit besteht darin, Computer zu Experten zu machen. Dahinter liegt die Wenn-dann-Regel. „Spracherkennungsprogramme wie Siri oder Alexa funktionieren so“, sagt Aljoscha Burchardt, Experte für Künstliche Intelligenz und Sprachtechnologie. Er ist auch Sachverständiger in der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages. „Die Regeln sind transparent und sehr gut beherrschbar, können aber keine komplexen Aufgaben lösen.“

Und was ist mit maschinellem Lernen? 
Das wird immer häufiger genutzt. Dabei geht es darum, aus Daten eine Handlung abzuleiten. Beispiel: Tumorerkennung. Ärzte markieren auf Hunderten oder Tausenden von MRT-Scans Tumore. Und dann lernen die neuronalen Netze, werten Pixel und Bilddaten aus, um die Entscheidung selbst zu treffen. Burchardt weist auf Risiken hin: Die Systeme arbeiten nach ihren statistischen Verfahren, auf die der Mensch keinen geeigneten Zugriff hat. „Das ist der Preis für relativ leicht aufsetzbare Systeme. Es wird eine Rest-Unsicherheit bleiben, ob die jeweiligen Trainingsdaten nicht auch zu Ergebnissen führen, die wir nicht gewollt haben“, sagt Burchardt. In Zukunft gehe es darum, diese Algorithmen transparenter zu machen. Bis dahin sollte bei wichtigen Entscheidungen der Mensch das letzte Wort haben.

Für welche Bereiche des Lebens wird KI wichtig werden? 
Bisher ist es so, dass diese Computertechnik immer dann gut funktioniert, wenn die Aufgaben klar definiert sind. Beim Schach gibt es eindeutige Regeln, deshalb konnte „Deep Blue“ den Schachweltmeister Garry Kasparow schon in den 90er-Jahren besiegen. Viel Geld wird im Silicon Valley zurzeit in Bild- und Sprach-Erkennung investiert. Das ist hilfreich, um das autonome Fahren zu fördern oder medizinische Behandlungen zu verbessern. Die Terrorbekämpfung spielt ebenfalls eine Rolle und die Sicherheit im Smarthome-Bereich auch. Für den Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlsterer, steht die Abkürzung „KI“ für Künftige Informatik, sie wird also alle Lebensbereiche betreffen.

Viele Menschen haben Angst, ihren Arbeitsplatz zu verlieren. Ist die Sorge berechtigt?
Google hat angeblich einmal herausgefunden, dass Pfleger in psychiatrischen Einrichtungen sich am wenigsten Sorgen machen müssen. Was das Beispiel zeigt: Wo individuelle menschliche Leistungen gefragt sind, hat der Computer keine Chance. Vom menschlichen Faktor, spricht Burchardt. Gefährdet sind also Berufe, in denen Leistungen erbracht werden, die auch Maschinen übernehmen können. Überall dort, wo es um Routinearbeit geht, werden Angestellte es schwer haben, weil Computer schneller sein werden. Burchardt rät, sich auf Veränderungen in der Berufswelt durch Fortbildungen vorzubereiten. Im Zentrum steht die Frage: Was kann ich tun, was der Computer nicht übernehmen kann? Und wichtiger noch: Was mache ich in der neu verfügbaren Zeit?

Wo steht Deutschland im internationalen Vergleich der Forschung? 
Viel Geld fließt derzeit zum Beispiel ins Cyber Valley zwischen Tübingen und Stuttgart. Ein Max-Planck-Institut bildet den wissenschaftlichen Kern, drum herum gruppieren sich immer mehr private Geldgeber, darunter Bosch und Daimler, aber auch der US-Konzern Amazon. Die grün-schwarze Landesregierung fördert den neuen Standort massiv. Der bundesweite Standortwettbewerb rund um KI ist in vollem Gang. In Hessen etwa setzt der grüne Wirtschaftsminister Tarek Al-Wazir auf eine eigene KI-Initiative des Landes am Finanzplatz Frankfurt. Schon seit 30 Jahren gibt es das wirtschaftsnahe Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), dort ist auch Burchardt tätig. Er sagt: „Auf den Konferenzen sind wir gut, aber man sieht auch immer mehr chinesische Forscher, die vor zehn Jahren noch nicht dabei waren. Die USA waren schon immer gut vertreten. Aber noch sehe ich Deutschland forschungsmäßig in einer guten Position.“

Künstliche Intelligenz basiert auf großen Datenmengen. Was sagen eigentlich die Datenschützer?
 
„Grundsätzlich ist es richtig, wenn die Forschung vorhandene Daten erhält und sie nicht nur bei einigen wenigen großen Konzernen landen“, sagte Peter Schaar der Berliner Zeitung (Redaktionsnetzwerk Deutschland). Schaar war bis 2013 Bundesbeauftragter für Datenschutz. Aus seiner Sicht ist es wichtig, dass diese Daten verlässlich anonymisiert werden. Was er noch hervorhebt: „Der Betroffene, der seine Daten etwa für medizinische Forschung bereitstellt, muss wissen, was damit geschieht. Richtig ist, dass die Auswertung großer Datenbestände insbesondere die Genetik erheblich vorangebracht hat. Davon profitieren wir alle, etwa bei personalisierten Krebstherapien. Bestimmte Erkenntnisse können aber auch gegen uns verwendet werden – etwa wenn Algorithmen empfehlen, bestimmte Therapien bei bestimmten Patienten aus Kostenerwägungen nicht mehr einzusetzen. Dem muss gegebenenfalls gesetzlich begegnet werden.“

In Science-Fiction-Filmen sind künstliche Wesen immer die Bösen. Werden die Autoren recht behalten? 
Der Schriftsteller Tom Hillenbrand hat in einem Gastbeitrag vor dem dystopischen Blick gewarnt, weil er viele Ängste schürt. Burchardt sagt, dass der Begriff „Künstliche Intelligenz“ sehr emotional verwendet wird. Auf der einen Seite soll die Technik Probleme wie den Klimawandel lösen, anderseits bestehe die Angst, dass es höheren Wesen geben könnte, die es übel meinen mit der Erdbevölkerung. Der Wissenschaftler hofft, dass die Menschen über Abläufe in der analogen Welt anders nachdenken werden, um das Leben in der digital unterstützten Zukunft angenehmer zu machen.