Die Wissenschaft drückt sich vor Verantwortung: Sie muss sich ändern!

Auch „reine“ Grundlagenforschung muss sich fragen, ob ihre Methoden, ihr riesiger Energieverbrauch und ihre gigantischen Anlagen unbedenklich sind.

Super teure Forschung: Blick in den Large Hadron Collider (LHC) des CERN in der Nähe von Genf. Das Kernforschungszentrum bezieht jährlich 1,2 Terawattstunden Strom. Die Frage ist, welchen Sinn solcherart Grundlagenforschung überhaupt hat – und ob immer gigantischere Anlagen entstehen müssen.
Super teure Forschung: Blick in den Large Hadron Collider (LHC) des CERN in der Nähe von Genf. Das Kernforschungszentrum bezieht jährlich 1,2 Terawattstunden Strom. Die Frage ist, welchen Sinn solcherart Grundlagenforschung überhaupt hat – und ob immer gigantischere Anlagen entstehen müssen.imago/UPI Photo

Nach dem Ausbruch des Ukraine-Krieges forderten Nobelpreisträger in einem Friedensappell „Regierungen und Wirtschaftsverantwortliche“ auf, wissenschaftliche Erkenntnisse und Technologien „ausschließlich für friedliche Zwecke (…) und im vollen Bewusstsein für ihre langfristigen Folgen einzusetzen“. Eine fatale Selbstentlarvung.

Forscher sehen ihre Aufgabe darin, neue Erkenntnisse zu gewinnen. Die positive Seite ihrer Anwendung schreiben sie sich gern auf ihre eigene Fahne. Die negative Seite ist für sie ein Missbrauch ihrer Erkenntnisse durch andere. Sind aber nicht auch Wissenschaftler selbst dafür verantwortlich, wofür ihre Forschungsergebnisse genutzt werden, egal, wo sie arbeiten?

Beispiel Dual-Use-Projekte: Wer, wenn nicht die an solchen Projekten beteiligten Forscher selbst, könnte zweifelsfrei zwischen friedlicher und nicht friedlicher Nutzung von Forschungsergebnissen und Technologien unterscheiden und die Grenze zwischen beiden ziehen? Doch in weiten Teilen der Wissenschaft geht es längst nicht mehr allein um Erkenntnisgewinn. Vielmehr hat sie sich einem Dogma der Innovation unterworfen, das die Grenzen zwischen Wissenschaft und Wirtschaft verschwimmen lässt.

Wissenschaftler gehorchen diesem Dogma, indem sie sich unter anderem daran messen lassen, wie viel Fördermittel sie aus der Industrie einwerben und ihre Forschungsergebnisse daraufhin abklopfen, ob sie wirtschaftlich nutzbar sind. Sie balgen sich dann um Patentrechte, die ihnen viel Geld einbringen. Das Ergebnis ist, dass sich durch die Nutzung von Forschungsergebnissen zwar die Lebensverhältnisse für einen Bruchteil der Menschheit verbessert haben, die Existenzgrundlagen für die gesamte Menschheit aber zu Bruch gehen. Sollten Wissenschaftler nicht auch dafür zumindest mitverantwortlich sein? Und gibt es nicht auch in der „reinen“ Grundlagenforschung, die nicht auf Anwendung zielt, sondern darauf, die Grenzen der Erkenntnis zu erweitern, Risiken und Nebenwirkungen, die in der öffentlichen Debatte kaum eine Rolle spielen? Beispielsweise in der Astrophysik, der Hochenergiephysik und der Gentechnik.

Observatorium auf dem Mauna Kea, USA, Hawaii
Observatorium auf dem Mauna Kea, USA, Hawaiiimago/blickwinkel

„Wahnsinnig teure“ Astrophysik

Reinhard Genzel, der 2020 gemeinsam mit der US-amerikanischen Astronomin Andrea Gezh für die Entdeckung des Schwarzen Loches in unserer Milchstraße mit dem Nobelpreis geehrt wurde, bilanzierte in einem Gespräch, dass die Astrophysik „wahnsinnig teuer“ ist. Seine Forschung habe schätzungsweise 150 Millionen Euro gekostet, davon allein 60 Millionen Euro für die Beteiligung an zwei Satellitenexperimenten. Und er gesteht freimütig, dass „die Gesellschaft irgendwann sagen (kann), das ist mir zu teuer“.

Der enorme finanzielle Aufwand ist aber nicht das einzige fragwürdige Problem der Astrophysik. Zum Beispiel ist das Observatorium in Hawaii auf dem 4200 Meter hohen Mauna Kea mit seinen 13 Teleskopen für Astronomen ein idealer Ort für die Beobachtung des Weltraumes. Für die Einheimischen ist er ein heiliger Ort. Das hat immer wieder zu Konflikten geführt, seit Astronomen in den 1960er-Jahren begonnen haben, den Berg für ihre Forschungszwecke zu vereinnahmen.

Dabei geht es nicht nur um religiöse Traditionen, sondern auch um den Schutz der Umwelt und des Klimas. Französischen Wissenschaftlern zufolge erzeugen die weltweiten astronomischen Infrastrukturen während ihrer Lebenszeit einen CO2- Fußabdruck von über 22 Millionen Tonnen CO2-Äquivalent. Sie kommen, wie auch andere ihrer Fachkollegen, zu dem Schluss, dass konzertierte Aktionen nötig seien, um die ökologischen Folgen ihrer Arbeit zu reduzieren.

Umstrittene Hochenergiephysik

Vor zehn Jahren haben Wissenschaftler des Europäischen Kernforschungszentrums CERN in der Nähe von Genf am Large Hadron Collider (LHC) ein neues Elementarteilchen entdeckt. Das sogenannte Higgs-Boson, durch das alle anderen Teilchen ihre Masse erhalten, ohne die unser Universum nicht hätte entstehen können. Der Large Hadron Collider ist ein knapp 27 Kilometer langer unterirdischer Ringtunnel, in dem in entgegengesetzter Richtung fliegende Protonen auf fast Lichtgeschwindigkeit beschleunigt werden und dann miteinander kollidieren. Der Neuen Zürcher Zeitung zufolge ist CERN nach der Schweizerischen Bundesbahn der zweitgrößte Einzelenergieverbraucher des Landes. Das Kernforschungszentrum beziehe jährlich 1,2 Terawattstunden Strom. Damit ließe sich etwa ein Drittel des Kantons Genf versorgen.

Als wäre das nicht umweltschädigend und energiefressend genug, begannen Hochenergiephysiker über den Bau einer noch leistungsfähigeren Anlage nachzudenken, unter anderem über einen Ringbeschleuniger mit einem Umfang von 100 Kilometern in einem Untergrundtunnel in der Nähe des CERN. Der Bau, so schätzen die Experten, würde bis zu 24 Milliarden US-Dollar kosten.

Doch dieses Vorhaben ist selbst unter Fachleitern umstritten. „Die Grundlagenphysik hat sich vergaloppiert –die Forschung stagniert (…) Die Theoretiker machen seit Jahrzehnten falsche Vorhersagen, denken aber nicht im Traum daran, ihre Methoden zu ändern. (…) Der Prozess der Selbstkorrektur, den man doch in einer wissenschaftlichen Gemeinschaft erwartet, findet nicht statt. Da läuft etwas grundsätzlich schief“, sagt Sabine Hossenfelder, eine theoretische Physikerin, in einem Interview mit der Frankfurter Rundschau.

ILLUSTRATION - Eine künstlerische Darstellung zeigt eine Teilchen-Kollision in der neuen, von den Physikern der Europäischen Organisation für Kernforschung (CERN) vorgeschlagenen Anlage, die in einem 100 Kilometer langen ringförmigen Tunnel teils unter dem Genfer See verlaufen soll.
ILLUSTRATION - Eine künstlerische Darstellung zeigt eine Teilchen-Kollision in der neuen, von den Physikern der Europäischen Organisation für Kernforschung (CERN) vorgeschlagenen Anlage, die in einem 100 Kilometer langen ringförmigen Tunnel teils unter dem Genfer See verlaufen soll.dpa/CERN

Riskante Gentechnik

Über das Für und Wider der Gentechnik wird häufig anhand konkreter Anwendungsfälle diskutiert. Worum es generell geht, schreibt Jennifer Doudna, eine der mit dem Nobelpreis ausgezeichneten Entwicklerinnen der CRISPR-Genschere, in ihrem Buch „Eingriff in die Evolution“: „Die Zeiten, in denen das Leben ausschließlich durch die schwerfälligen Kräfte der Evolution geprägt wurde, sind vorüber. Wir stehen an der Schwelle zu einem neuen Zeitalter, in dem wir die Herren über die genetische Ausstattung allen Lebens und all ihre vielfältigen, lebensprühenden Folgen sind.“

Damit macht die Gentechnik die biologische Evolution zu einer Art steuerbaren technologischen Prozess und degradiert alles Lebende zu einem Fertigungsgegenstand! Ebenso erschreckend erscheint dem Laien die Gain-of-Function-Forschung. Sie verstärkt die Aktivität von Genen oder erzeugt sogar neue Genfunktionen, um zum Beispiel Infektionskrankheiten besser vorhersagen und Impfstoffe entwickeln zu können. Wegen ihrer Gefahren wird Gain-of-Function-Forschung in Hochsicherheitslaboren durchgeführt. Trotz der hohen Sicherheitsstandards hätten sich Mitarbeiter solcher Laboratorien beispielsweise mit dem Sars-Virus infiziert, so die Wissenschaftlichen Dienste des Deutschen Bundestages. Und es gebe selbst aus der Wissenschaft kritische Stimmen, die nicht ausschließen, dass manipulierte Krankheitserreger aus Hochsicherheitslaboren entweichen können.

Biolaborunfälle passierten mit alarmierender Frequenz, sagt Richard H. Ebright, ein US-amerikanischer Professor für Chemie und Chemische Biologie, in einem Gespräch mit dem Mediaunternehmen The Street. Aber weil die meisten Wissenschaftler weiter arbeiten wollen, funktioniere eine Selbstregulierung der Wissenschaft nicht. Sie sei nichts anderes als Selbstverteidigung. Bislang hatte das anscheinend keine katastrophalen Folgen. Aber man denke an Murphys Gesetz: die Annahme, dass alles, was schiefgehen kann, irgendwann auch schiefgehen wird. Wie beim russischen Roulette!

Eine wissenschaftliche Mitarbeiterin pipettiert während des CRISPR/Cas9-Verfahrens in einem Labor am Max-Delbrück-Centrum für Molekulare Medizin in einer Petrischale.
Eine wissenschaftliche Mitarbeiterin pipettiert während des CRISPR/Cas9-Verfahrens in einem Labor am Max-Delbrück-Centrum für Molekulare Medizin in einer Petrischale.dpa/Gregor Fischer

Daten statt Theorien

Das Large-Hadron-Collider-Experiment erzeugt bis zu 15 Petabytes (PB) pro Jahr, bei einem für 2024 geplanten System von Radioteleskopen, dem Square Kilometer Array, sollen es sogar ein Petabyte täglich sein. „Wenn ein Mensch 80 Jahre lang ohne Unterbrechung nichts anderes täte, als sich 1 PB an Ergebnissen ‚anzusehen‘, müsste er pro Sekunde 320.000 Buchstaben (ein Taschenbuch) lesen, um ganz durchzukommen“, so der Informatiker Andreas Reuter im Spektrum der Wissenschaft. „Die Frage, wie solche Datenfluten jemals zu Theorien verdichtet, zu Erkenntnis veredelt werden können, geriet völlig in den Hintergrund“, schrieb Klaus Tschira, Mitbegründer des Softwarekonzerns SAP und Gründer des Heidelberger Institut für Theoretische Studien, schon vor über zehn Jahren in der gleichen Zeitschrift.

Er fühle sich bei wissenschaftlichen Diskussionen oft ertränkt in Daten, schreibt der britische Biochemiker und Nobelpreisträger Paul Nurse im Fachblatt Nature. Die Fragen, warum diese Daten gesammelt worden sind, welche Hypothesen damit überprüft werden sollen und welche Ideen sie hervorbringen, würden völlig vernachlässigt. Forschern scheine es zu widerstreben, biologische Schlussfolgerungen zu ziehen oder neue Ideen zu präsentieren. Das wäre ein bisschen so, als hätte Darwin aufgehört zu denken, nachdem er die Form und Größe von Finkenschnäbeln beschrieben hatte. Mehr Theorie sei nötig, so Paul Nurse. Aber ein durch Theorie und Wissen geleiteter wissenschaftlicher Suchprozess würde wahrscheinlich eine Veränderung der Forschungskultur erfordern.

Umweltbelastende Supercomputer und Künstliche Intelligenz

Datengetriebene Forschung braucht Computer mit geballter Rechenkraft. Beispielsweise kann „Summit“, ein Supercomputer von IBM, der 2018 als schnellster der Welt am Oak Ridge National Laboratory in Betrieb genommen wurde, dem Wiener Standard zufolge pro Sekunde 200 Billiarden Rechenoperationen ausführen. Damit kann er in einer Stunde eine Berechnung durchführen, für die ein Heimcomputer 30 Jahre benötigte. Mit der Energie, die er jede Minute verbraucht, könnten 8100 Haushalte mit Strom versorgt werden. Deshalb muss das System – so groß wie zwei Tennisplätze – pro Minute mit 15.000 Litern Wasser gekühlt werden.

Supercomputer „Summit“ von IBM steht im Oak Ridge National Laboratory.
Supercomputer „Summit“ von IBM steht im Oak Ridge National Laboratory.dpa/IBM

Inzwischen verfügen Wissenschaftler über Supercomputer der Exascale-Leistungsklasse. Ein solcher Gigant namens „Frontier“, der im gleichen Labor steht, schafft über 1,1 Trillionen (eine Eins mit 18 Nullen!) Rechenoperationen pro Sekunde und soll unter anderem der Entwicklung Künstlicher Intelligenz dienen. Aber auch die hat erhebliche Nebenwirkungen. Wie das Fachblatt NewScientist berichtet, kann die Entwicklung einer Künstlichen Intelligenz für unsere Erde fünfmal schlimmer sein als ein Auto, denn ihr Training hinterlasse neuen Schätzungen zufolge einen CO2-Fußabdruck von bis zu 284 Tonnen Kohlendioxidäquivalent – das Fünffache der Emissionen eines durchschnittlichen Autos während seiner gesamten Lebenszeit.

Dieser Streifzug zeigt, dass auch „reine“ Grundlagenforschung keinesfalls unbedenklich für den Menschen und seine Umwelt ist. Dennoch wollen Wissenschaftler ungebremst weiter forschen wie bisher. Sie glauben zum Beispiel, dass das Problem des Klimawandels mit Methoden des Geoengineering gelöst werden könnte, obwohl sie in die geochemischen Kreisläufe des Erdsystems eingreifen und damit die gesamte Erde zum Versuchsgegenstand machen würden.

Und sie versprechen seit 70 Jahren, dass uns die gesteuerte Kernfusion von allen Energieproblemen befreien wird, weil sie eine unerschöpfliche und umweltverträgliche Energiequelle sei. Niemand fragt, was das für Folgen hätte. Würden dadurch Energieabhängigkeiten wie heute bei fossilen Ressourcen entstehen? Würden noch mehr Rohstoffe abgebaut und verarbeitet und damit die Umwelt noch stärker belastet?

Wir brauchen eine Zeitenwende in der Wissenschaft

Ist es in unserer Situation, in der die Menschheit zum ersten Mal in ihrer Geschichte in der Lage ist, sich auszulöschen, nicht geboten, der Weisheit Dominanz zu verschaffen? Aber wer könnte entscheiden, was Wissenschaftler tun oder lassen sollen und das auch durchsetzen? Und ist das Problem, die Existenzgrundlagen der Menschheit zu erhalten, nicht viel zu komplex, als das man es dadurch lösen könnte, nur an einzelnen Stellschrauben zu drehen? Sollte die Wissenschaft nicht vielmehr zu einem neuen Selbstverständnis finden, indem sie ihre Kompetenzen und die ihr in vielen Ländern gesetzlich gewährte Freiheit dazu nutzt, eine Wende in der Wissenschaft einzuleiten? Hin zu einer neuen Entwicklungsstufe, in der einzig das Kriterium gilt, die Existenzbedingungen des Menschen auf der Erde zu erhalten.

Dazu wären überkommene Denkmuster zu überwinden. Denn „die große Krise, die wir durchleben (…) (ist) auch eine Krise des Wissens (…) eine Krise des Denkens“, schreibt der über 100 Jahre alte Edgar Morin, der französische Soziologe und Philosoph, in der Wochenzeitung Der Freitag. Wer ist prädestinierter dafür, die wissenschaftliche Community zu einer Reform der Wissenschaft zu animieren, als Nobelpreisträger, deren Autorität auch von Regierungen und Wirtschaftsmanagern respektiert wird?

Klaus Urban, Jahrgang 1944, war unter anderem Leiter der Abteilung Forschungsorganisation der Akademie der Wissenschaften der DDR. Im Bundesforschungsministerium war er als Regierungsdirektor für die Materialforschung zuständig. Von 1996 bis 1999 war er Nationaler Experte bei der EU-Kommission.

Das ist ein Beitrag, der im Rahmen unserer Open-Source-Initiative eingereicht wurde. Mit Open Source gibt der Berliner Verlag freien Autorinnen und Autoren sowie jedem Interessierten die Möglichkeit, Texte mit inhaltlicher Relevanz und professionellen Qualitätsstandards anzubieten. Ausgewählte Beiträge werden veröffentlicht und honoriert.