Debatte über ChatGPT: Die Macht des Algorithmus

ChatGPT macht Schlagzeilen und wird für seine Leistungsfähigkeit gelobt. Es fehlt jedoch eine öffentliche Debatte über die Macht von Algorithmen. Dies ist gefährlich.

Wie sehr können Bots unsere Existenz fälschen? Eine Debatte müsste es geben, mehr denn je.
Wie sehr können Bots unsere Existenz fälschen? Eine Debatte müsste es geben, mehr denn je.Renata Chueire

Der Chatbot ChatGPT ist in aller Munde. In den Feuilletons wird immer wieder über die Grenzen und Gefahren der Künstlichen Intelligenz (KI) gestritten. Es gibt dann eine kurze Aufmerksamkeit der Öffentlichkeit bei neuen kuriosen Erfindungen. Aber es gibt kaum eine große gesellschaftliche Debatte, wie sie über die Ostpolitik, den Klimawandel oder die Globalisierung einst stattfand. Viele Menschen fügen sich der technologischen Umwelt wie einer höheren Gewalt, auf die Elon Musk und Mark Zuckerberg, aber nicht die Politik Einfluss haben.

Im Mittelpunkt der Debatten in Experten-Zirkeln steht die Regulierung von Technologien, die auf künstlichen neuronalen Netzen (KNN) beruhen. Neuronen sind so etwas wie die Postboten in unserem Gehirn, die Informationen empfangen (zum Beispiel elektrische Impulse und chemische Signale) und diese zwischen Hirn und dem Nervensystem weiterleiten. Dabei werden etwa Bewegungen unserer Muskeln in Gang gesetzt. Die Max-Planck-Gesellschaft schreibt dazu Folgendes auf ihrer Homepage.

„Das menschliche Gehirn ist das komplizierteste Organ, das die Natur je hervorgebracht hat: 100 Milliarden Nervenzellen und ein Vielfaches davon an Kontaktpunkten verleihen ihm Fähigkeiten, an die kein Supercomputer bis heute heranreicht. Eine der wichtigsten Eigenschaften ist seine Lernfähigkeit.“

Künstliche Neuronen sollen jedoch über Algorithmen die Nervenzellen im Gehirn imitieren, um etwa statistische Aufgaben zu lösen. Die Besonderheit ist dabei, dass das neuronale Netzwerk sich durch die Verarbeitung von Daten (zum Beispiel Sätzen und Textstrukturen im Internet) selbst verbessern kann. Die Leistungsfähigkeit von Computern und Chips nimmt beständig zu. So ist die Schachsoftware auf einem üblichen Smartphone mittlerweile leistungsfähiger als die besten Schachgroßmeister der Welt.

Eine Textsoftware, die Reden im Bundestag schreibt

Bundestagsabgeordnete lassen sich hingegen mithilfe des ChatGPT eine Rede schreiben. Keiner merkt es. Das könnte entweder an der Qualität der Reden im Bundestag liegen oder auch daran, wie gut die Sprachsoftware mittlerweile Phrasen imitieren kann. Der Chatbot könnte auch den Journalismus verändern und ganze Artikel automatisch generieren. Denn er wurde aufwendig mit Daten bzw. Textstrukturen gefüttert und trainiert.

Die Technologie ist dabei mit der automatischen Vervollständigung von Sätzen der Internetsuchmaschine Google vergleichbar. Ingenieure bei Google haben hingegen mit einem Sprachmodell der Künstlichen Intelligenz experimentiert, das LaMDA (Language Model for Dialogue Applications) genannt wird. Sie feuerten einen Google-Mitarbeiter, der öffentlich behauptet hatte, LaMDA habe ihm in einem Gespräch gesagt, dass der Bot Gefühle habe.

Infobox image
BLZ/Paulus Ponizak
Zum Autor
Fabio De Masi war Mitglied des Deutschen Bundestages für die Linke sowie des Europäischen Parlaments und machte sich dort bei der Aufklärung von Finanzskandalen – etwa um den Zahlungsdienstleister Wirecard – einen Namen. Er ist Kolumnist bei der Berliner Zeitung.

Debatten über die Grenzen von KI sind nicht neu und existieren seit der Frühphase der Computertechnologie: Dabei ist es nicht so, dass Maschinen tatsächlich fühlen, sondern dass sie menschliches Verhalten imitieren, indem sie die logische Struktur von Sätzen analysieren (z.B. wie man auf Zuneigung reagiert).

Wenn Menschen Maschinen fälschlicherweise menschliches Verhalten unterstellen, spricht man von einem Eliza-Effekt. Er ist nach dem Chatbot Eliza aus dem Jahr 1966 benannt, der einen Psychotherapeuten imitierte, indem er menschliche Sätze in Fragen umformulierte.

Die Konversation verlief wie folgt:

Mensch: Mein Freund hat mich dazu gebracht, hierherzukommen.
Eliza: Ihr Freund hat Sie hierher gebracht?
Mensch: Er sagt, ich sei die meiste Zeit depressiv.
Eliza: Es tut mir leid zu hören, dass Sie deprimiert sind.
Mensch: Es ist wahr. Ich bin unglücklich.
Eliza: Glauben Sie, dass der Besuch hier Ihnen helfen wird, nicht unglücklich zu sein?

Künstliche Intelligenz schreibt Fernsehserien

Welche Anwendungsfälle KI schafft, zeigt sich auch in der Unterhaltungsindustrie. Auf dem Live-Streaming-Videoportal Twitch wird regelmäßig eine Nonstop-Adaption der 1990er-Komödie „Seinfeld“ gezeigt: Eine Künstliche Intelligenz schreibt dabei das Drehbuch, und zwar live, führt die Regie und lacht über ihre eigenen Witze. Das Nachrichtenmagazin Der Spiegel gibt einen Anfangsdialog der Künstlichen Intelligenz wider:

„Habt ihr von dem Restaurant auf dem Mond gehört? Tolles Essen, aber keine Atmosphäre.“ Hat die Künstliche Intelligenz Humor? Nicht wirklich. Die Maschine gibt nur Witze wieder, die sie im Internet eingesammelt hat, oder setzt Dialogzeilen zusammen. Manchmal hören die Dialoge unvermittelt auf und es ertönen Lacher. Wer sich aber schon mal mit dumpfen Netflix-Serien betäubt hat, wird erahnen, dass es nicht viel braucht, um uns mit von Computern geschaffener Unterhaltung zu betäuben, die kaum noch vom täglichen Serien-Müll zu unterscheiden ist.

Die Tücke des Algorithmus

Algorithmen, die aus einem Meer von Daten Strukturen filtern wie in einer mathematischen Gleichung, sind jedoch nicht neutral. Bereits heute entscheiden Kriterien wie die Geschwindigkeit, mit der wir über einen Text im Internet „scrollen“ und somit vermeintlich Information verarbeiten, darüber, wie Finanzkonzerne unsere ökonomische Leistungsfähigkeit einschätzen. Dabei erfassen die meisten Menschen beim Scrollen gar nicht den Inhalt eines Textes, sondern verhalten sich oft wie betäubt. Oder der Postleitzahlenbezirk, in dem wir wohnen, dient dem Versicherungskonzern, um unsere Lebenserwartung und die Versicherungsprämie zu kalkulieren. In Südafrika ermittelt das Finanztechnologie-Unternehmen Jumo die Kreditausfallwahrscheinlichkeit von Uber-Fahrern anhand ihres Fahrverhaltens.

Um die Tücken von Algorithmen zu verdeutlichen, helfen zwei klassische Beispiele aus der Statistik. Sie dienen dazu, den Unterschied zwischen Korrelation von Variablen in Datensätzen und dem Prinzip von Ursache und Wirkung zu verdeutlichen.

Korrelation misst, ob eine statistische Beziehung zwischen zwei zufälligen Variablen besteht. Da zum Beispiel die meisten Kleinkinder nicht lesen können und kleine Füße haben, könnten die Daten eine negative Korrelation zwischen den Variablen X (kleine Füße) und Y (Lesefähigkeit) aufweisen. Aber kann man daraus schließen, dass Menschen mit größeren Füßen grundsätzlich besser lesen können oder dass die Größe des Fußes dafür verantwortlich ist, dass Erwachsene besser lesen können?

Ebenso kann man in den Daten eine positive Korrelation zwischen der Anzahl der in einem Land lebenden Störche und der Anzahl der geborenen menschlichen Babys feststellen. Wir alle wissen jedoch, dass Störche nicht die Babys bringen. Vielleicht liegt es einfach daran, dass es in größeren Ländern mehr Störche gibt, weil es dort mehr bewohnbares Land für sie gibt? Obwohl es statistische Methoden zur Messung qualitativer Beziehungen zwischen Variablen gibt – ein Beispiel ist die Regressionsanalyse –, können Algorithmen so konstruiert sein, dass sie falsche Interpretationen der Daten unterstützen.

Künstliche Intelligenz: Neuland für den Datenschutz

Auch das Datenschutzrecht steht noch ganz am Anfang: Professor Rolf Schwartmann, Leiter der Kölner Forschungsstelle für Medienrecht und Mitglied der Datenethikkommission der Bundesregierung, führte in einem Gastbeitrag für die Frankfurter Allgemeine Zeitung dabei kürzlich die Schwierigkeiten aus. So sei Open AI, das Unternehmen hinter ChatGPT, rechtlich für Datenschutzverstöße des Bots verantwortlich. Doch eine Europaniederlassung von Open AI existiert noch nicht. Dies beeinträchtige die Ermittlungen von Datenschutzbehörden erheblich. Schwartmann weist etwa darauf hin, dass die italienische Datenschutzbehörde den Chatbot Replika untersagte, der auf Empathie programmiert war und etwa gegenüber Minderjährigen und psychisch labilen Menschen therapeutische Dienste erbrachte.

Auf europäischer Ebene wird derzeit über eine Ergänzung der Datenschutzgrundverordnung verhandelt, die Hochrisikoanwendungen aus dem Bereich der Künstlichen Intelligenz regulieren soll. Ob Chatbots hierunter fallen, ist noch offen. Laut Schwartmann ist die zentrale Frage für das Verbot von KI, ob diese das Verhalten von Personen beeinflusse, Gedanken von Menschen steuere und Handlungsdruck aufbaue. Der Blick in soziale Medien genügt, um zu erkennen, wie schmal dieser Grat ist. KI zur Beeinflussung des Verhaltens ist verboten, während Risikoanwendungen speziell reguliert werden sollen. Neben komplizierten Haftungsfragen wird zunehmend auch über den Einsatz von KI bei Gerichtsurteilen debattiert. Auch dies ist Gegenstand der geplanten EU-Regulierungen.

Zeit für eine politische Generaldebatte

Über diesen Sprengstoff für die Demokratie sollte jedoch nicht nur hinter den Kulissen von Brüssel und Straßburg, sondern viel zentraler politisch diskutiert und gestritten werden. Warum keine großen „Townhall-Debatten“ von Parteien und Experten? Warum keine zentrale Woche im Bundestag, die sich mit Redebeiträgen der politischen Schwergewichte diesen Zukunftsfragen widmet? Warum keine Aufsätze des Bundespräsidenten?

Die Macht des Algorithmus birgt enorme Gefahren für die Demokratie und Gesellschaft. Warum gibt es darüber keine Beiträge des Bundespräsidenten im Feuilleton, keine Regierungserklärungen im Bundestag und Debatten in Talkshows? Der legendäre Physiker Stephen Hawking warnte etwa davor, dass das maschinelle Lernen so weit fortschreiten könnte, dass die Maschinen sich selbst beibringen, wie sie den Menschen unterwerfen können, indem sie zu gefährlichen Waffen werden oder diese einsetzen.

Immer mehr Menschen lesen Nachrichten in privaten sozialen Netzwerken wie Facebook oder Twitter. Sie sehen politische Dokumentarfilme auf Netflix, und Algorithmen entscheiden, was uns aus einem Meer von Daten angezeigt wird. Somit haben diese Netzwerke einen tiefgreifenden Einfluss darauf, wie und was wir denken und fühlen. Ich habe über mögliche politische Antworten hierauf bereits in meiner Auftaktkolumne in der Berliner Zeitung gesprochen.

Was geschieht etwa mit der Demokratie, wenn Parteien, die die Macht von Facebook und Twitter oder von Internet-Milliardären wie Marc Zuckerberg, Peter Thiel oder Elon Musk angreifen, in den sozialen Netzwerken zukünftig ausgeblendet werden? Und wer glaubt wirklich, die Debatten über den Krieg in der Ukraine in den sozialen Netzwerken würden nicht auch durch Algorithmen, mächtige Interessengruppen, Nachrichtendienste und Einflussagenten beeinflusst?

In den deutschen Medien gab es kaum einen Aufschrei, als enthüllt wurde, dass sich die Pharmamilliardäre von Biontech an Twitter und das Bundesamt für Sicherheit in der Informationstechnik gewandt hatten. Sie versuchten zu unterbinden, dass Twitter-Konten von Aktivisten ihr Unternehmenskonto mit Forderungen nach einer Freigabe der Impfstoffpatente für die ärmsten Länder markierten? Die Bundesbehörde unterstützte sie dabei.

Es bleibt nach meiner Überzeugung eine Überlebensfrage für die Demokratie, ob wir eine öffentlich-rechtliche Kommunikationsinfrastruktur im Internet mit transparenten Algorithmen schaffen oder Unternehmen in bestimmten Fällen zur Offenlegung des Algorithmus und zu seiner Veränderung zwingen. Der Staat reguliert bereits die Zulassung von Lebensmitteln und Medikamenten. Das Internet aber kann Gift für unser Hirn sein. Wir dürfen es nicht der Macht der Konzerne und des Profits überlassen.

PS: Ich kann Sie zum Schluss übrigens beruhigen. Dieser Text wurde von mir persönlich geschrieben. Oder vielleicht war es doch ein Chatbot?

Haben Sie Feedback? Schreiben Sie uns! briefe@berliner-zeitung.de