Eine von Google trainierte Künstliche Intelligenz (KI) soll nach den Behauptungen eines einzelnen Mitarbeiters ein eigenes Bewusstsein entwickelt haben. Der Mitarbeiter namens Blake Lemoine wurde daraufhin von Google entlassen.

Das berichtet die Washington Post und zitiert dabei aus Gesprächsaufzeichnungen zwischen Blake Lemoine und dem Chatbot namens LaMDA. Diese Aufzeichnungen hätten den 42-Jährigen glauben lassen, dass LaMDA mit einem etwa sieben- bis achtjährigen Kind vergleichbar ist.

Google: LaMDAs Antworten sind sinnvoll und spezifisch

LaMDA steht für „Language Model for Dialogue Applications“. Der Algorithmus wurde mit großen Mengen an Dialogen gefüttert, um menschliche Konversation zu simulieren. Google versichert, dass die Antworten auf menschliche Fragen sinnvoll und spezifisch seien. Die KI habe aber kein Bewusstsein.

So kam es zum Konflikt zwischen Google und dem Mitarbeiter: Blake Lemoine sollte testen, ob der Chatbot sicher ist. Dabei stellte er seiner Ansicht nach fest, dass sich sein KI-Gesprächspartner im Dialog verselbstständigt hatte: In vielen Konversationen habe Lemoine mit LaMDA beispielsweise über Religion geredet. Die KI habe auch über ihre Rechte und Persönlichkeit gesprochen. Schließlich habe sie ihn sogar von ihrem Standpunkt zu den Robotergesetzen von Isaac Asimov überzeugt.

Ein Konzernsprecher von Google sagte der Washington Post, dass es in jüngerer Zeit vermehrt Debatten über ein mögliches Bewusstsein von KI gegeben habe. Dabei gehe es aber um langfristige Entwicklungen, es ergebe keinen Sinn, aktuelle Konversationsmodelle zu vermenschlichen: „Die sind nicht empfindsam.“ Sie würden menschliche Konversationen imitieren und über so viele Daten verfügen, dass sie kein Bewusstsein bräuchten, um real zu wirken.