Wissenschaftliche Modelle: Mehr Nutzen als Fehler

Datum

Bei der 23. Leopoldina Lecture am 11. Oktober 2022 im Xplanatorium Herrenhausen sprachen Expert:innen über den Einsatz wissenschaftlicher Modelle in der Forschung. Was können sie leisten, wo sind ihre Grenzen und wie können Forschende und Öffentlichkeiten sich über Modell-basierte Aussagen verständigen?

"Jeder hat irgendeine Meinung zu wissenschaftlichen Modellen, gleichzeitig gibt es viele Fragen und Missverständnisse", sagte zum Auftakt des Abends die Moderatorin Dr. Sibylle Anderl, die das Wissenschaftsressort der Frankfurter Allgemeinen Zeitung und der Frankfurter Allgemeinen Sonntagszeitung leitet. Und der Statistiker Georg Box, den zwei der Podiumsgäste zitierten, hat gesagt, dass im Grunde alle Modelle falsch seien, manche aber seien nützlich. Ihre Zuhörenden auf der Leopoldina Lecture "Prognosen oder Suggestionen: Was taugen wissenschaftliche Modelle?" forderten sie deshalb auf: Frag nicht, was falsch an einem Modell ist, frage, wie es uns nutzen kann. 

Videomitschnitt der Veranstaltung

Video Titel
Dr. Axel Gelfert steht an einem Podium
Prof. Dr. Axel Gelfert meint, dass sich Modellierende verschiedener Disziplinen noch besser zu verständigen lernen müssen. (Foto: Philip Bartz/VolkswagenStiftung)

Abbilden, vorhersagen, erkunden

Gelfert unterschied drei Funktionen formaler Modelle. Sie können ein Zielsystem repräsentieren, dann hängt die Qualität des Modells besonders von der Auswahl der relevanten Details an, die es berücksichtigt. Sie können Vorhersagen machen, dann müssen sie sich insbesondere an ihrer prädiktiven Stärke messen lassen – die kann rein qualitativ sein, in bestimmte Größenordnungen liegen oder numerisch exakt sein. Oder sie sind explorativ, dienen also dem Ausloten von Möglichkeiten. In der Kommunikation über den Einsatz von Modellen sei es zwingend erforderlich, den jeweils problemspezifischen Erkenntnisgewinn immer mit zu benennen, betonte Gelfert. Zudem sei es wichtig zu verstehen, dass Modelle nicht statisch sind. Ändert sich die Ausgangslage, kommen sie entsprechend zu neuen Ergebnissen. Deshalb müsse stets kenntlich gemacht werden, welche Annahmen und Abwägungen in die Gestaltung eines Modells einfließen.

Der Verhaltensforscher Prof. Dr. Thorsten Pachur vom Lehrstuhl für Methoden der Verhaltensforschung der Technischen Universität München wies darauf hin, dass gerade hierin eine Stärke formaler Modelle liege. "Es gibt einen systematischen Weg, Wissensbestände und Vorwissen in die Modellierung einfließen zu lassen", sagte er. "Ändern sich die Ausgangsbedingungen, kann die Information darüber auf geregeltem Weg eingespeist und das Modell nachjustiert werden". So könnten Entscheidungen auf einer rationalen Grundlage getroffen werden statt aufgrund impliziter, womöglich verborgener Annahmen und Vermutungen einzelner Personen.

Im Spannungsfeld der Manipulation

Ob menschliches Verhalten schwieriger zu modellieren sei als das physikalischer Teilchen, fragte ihn die Moderatorin. Manche Facetten menschlichen Verhaltens seien mithilfe physikalischer Teilmodelle näherungsweise abzubilden, so etwa Bewegungen einer Menschenmenge, die bedingt mit denen von Flüssigkeiten vergleichbar seien, sagte Pachur. Andere Modelle berücksichtigten dagegen die individuellen Entscheidungsprozesse des Einzelnen und seien wesentlich komplexer. In seiner Forschung wolle er menschliches Verhalten aber nicht nur beobachten und beschreiben: "Uns geht es darum, die Informationsverarbeitung beim Menschen zu verstehen." So sei er zum Beispiel der Frage nachgegangen, warum Menschen in medizinischen Fragen anders entscheiden, als wenn es um Finanzanlagen geht. Mithilfe von Modellen kam er zu dem Ergebnis, dass Menschen Aussagen zu Risiken im medizinischen Kontext anders bewerten als im Kontext finanzieller Entscheidungen. "Solche Erkenntnisse erlauben uns auch, Interventionen zu entwickeln, die das Verhalten der Menschen verändern", erklärte der Kognitionspsychologe – etwa das Risikoverständnis der angesprochenen Personen zu schulen oder Risiken anders darzustellen.

Thorsten Pachur steht an einem Podium.
Prof. Dr. Thorsten Pachur hält es für wichtig, die Entscheidungskompetenz der Menschen zu erhöhen, beispielsweise mithilfe von Virtuell Reality Techniken. (Foto: Philip Bartz/VolkswagenStiftung)

In der Pandemie und auch mit Blick auf den Klimawandel habe es sich zudem als wegweisende Strategie erwiesen, die Verhaltensumwelt der Menschen zu verändern. Ihre Entscheidungskompetenz zu erhöhen könne zudem gelingen, indem man Wahrscheinlichkeiten erfahrbar mache – beispielsweise mithilfe von Virtual Reality-Techniken. Ob man sich dabei auf einem schmalen Grat zur Manipulation bewege, fragte Moderatorin Anderl. "Ja", lautete Pachurs klare Antwort, "das Spannungsfeld ist eröffnet."

Sind Forschende voreingenommen?

"Tendenziell wählen die Experten apokalyptische Visionen, weil sie so leichter gewinnen können. Treten die Prognosen ein, können sie sagen, dass sie es dank besonderer intellektueller Fähigkeiten immer schon gewusst haben. Treten die düsteren Szenarien hingegen nicht ein, können sie gönnerhaft behaupten, dass ihre Warnung die Apokalypse abgewehrt hat – und erhalten sogar noch Applaus." Mit diesem Zitat des Bonner Erkenntnistheoretikers Prof. Markus Gabriel leitete Sibylle Anderl die Frage ein, ob sich die Öffentlichkeit auf die Objektivität der Wissenschaft verlassen könne. Oder müssen sich Wissenschaftler:innen dem Vorwurf stellen, übermäßig voreingenommen zu sein, wenn sie ihre eigenen Modelle entwerfen, benutzen und über die Ergebnisse sprechen?

Wissenschaftler:innen seien zuerst einmal Menschen, nahm Axel Gelfert seinen Berufsstand in Schutz, die wie andere Menschen auch gewisse normative Vorstellungen hätten. "Das beste Korrektiv dafür ist die transparente Diskussion!", betonte Dr. Lena Janys, Juniorprofessorin für Ökonometrie am Fachbereich Wirtschaftswissenschaften der Universität Bonn. Nur der Austausch könne Verzerrungen der eigenen Annahmen entgegenwirken, mit denen jede:r Wissenschaftler:in sich einem Problem nähere. Janys forderte folglich maximale Transparenz hinsichtlich der Parameter und Annahmen, die Modellierende gewählt und getroffen haben. "Intransparenz macht natürlich weniger angreifbar", sagte sie. "Aber wo kommen wir denn hin in einer Welt der intransparenten, nebulösen Annahmen?"

Dr. Lena Janys sitzt auf einem Podium.
Damit fachfremde Personen Ergebnisse besser verstehen, rät Dr. Lena Janys zur Einrichtung wissenschaftlicher Beiräte in der Politik. (Foto: Philip Bartz/VolkswagenStiftung)

In der offenen Diskussion könne man sich dagegen auch auf die Eitelkeit der Wissenschaftler:innen verlassen, fügte Janys mit einem kleinen Augenzwinkern hinzu. Sie stellten ihre jeweiligen Ansätze gegenseitig auf einen harten Prüfstand. In der Pandemie allerdings habe manche:r Wissenschaftler:in, die es sonst nur gewohnt seien, im engen Kreis fachverwandter Expert:innen zu diskutieren, "sich plötzlich mit einem überdimensionalen Interesse für ihr Forschungsthema konfrontiert gesehen". Auf den Anspruch, Methoden und Ergebnisse einem fachfremden Publikum verständlich zu erklären und Entscheidungshilfe zu leisten, seien die meisten Wissenschaftler:innen nicht vorbereitet. Für vielversprechend hält Janys in dieser Hinsicht die Einrichtung wissenschaftlicher Beiräte in der Politik, wo Wissenschaftler:innen und Politiker:innen dann auch eine gemeinsame Kommunikationsstrategie entwickeln. "Sie ermöglichen einen offeneren Diskurs und Vertrauensbildung in politische Entscheidungen."

Antworten aus dem Kollektiv

Philosoph Axel Gelfert gab noch zu bedenken, dass bei der Frage nach der Objektivität der Wissenschaft ein wichtiger Aspekt oft vernachlässigt werde. "Wissenschaftlicher Erkenntnisgewinn ist ein kollektiver Prozess. Er vollzieht sich innerhalb der Standards der Disziplinen, und eine Einzelperson kann die wissenschaftliche Sicht nicht objektiv wiedergeben."

Die Personalisierung in der Medienkultur ignoriere diese Tatsache. Gelfert hatte keine schnelle Lösung des Problems anzubieten: "Wen sollen wir denn in die Talkshow einladen, die ganze Leopoldina?", fragte er. Auch ein einzelnes wissenschaftliches Modell sei nicht in der Lage, die eine richtige Antwort zu geben, es gebe immer ein Ensemble von Modellen zu beachten. "Wir müssen mehr Wege finden, wissenschaftliche Erkenntnisse zu aggregieren", meint Gelfert. "Dafür ist das Intergovernmental Panel on Climate Change ein gutes Beispiel, das sein gesammeltes Wissen in den regelmäßigen Berichten bündelt." Und: Wissenschaftliche Erkenntnisse, die aus Modellen gewonnen werden, müssten eingebettet werden in gesellschaftliche Kontexte, angereichert mit Vorstellungskraft und menschlichen Szenarien.

Ein gutes Modell?

Jedes wissenschaftliche Modell muss hohe formale Ansprüche an seine Qualität erfüllen. Wie sich objektiv testen lässt, ob ein Modell geeignet ist, bestimmte Fragen zu beantworten, beschrieb Lena Janys. Zum einen könne man prüfen, ob sämtliche Annahmen, die in das Modell einfließen, empirisch bestmöglich validiert seien. Zudem könnten Modelle an vorliegenden Datensätzen vergleichbarer Interventionen aus der Vergangenheit getestet werden. Dabei zeigt sich, ob das Modell zu dem gleichen Ergebnis kommt wie das real eingetretene. Drittens könne beispielsweise ein ökonomisches Modell extern durch sogenannte Policy Experimente getestet werden. "Stellen Sie sich vor, es würde beispielsweise nur in Baden-Württemberg der Mindestlohn erhöht. Dann zeigt sich im Vergleich mit den anderen Bundesländern, ob ein Modell die Folgen richtig vorhergesagt hat." Thorsten Pachur ergänzte die Möglichkeiten, auf Nachfrage aus dem Publikum, um sogenannte Sensitivity-Analysen. Dabei messen die Entwickler:innen, wie stark sich eine Vorhersage ändert, wenn einzelne Parameter des Modells verändert werden. Daraus ergibt sich ein Grad der Robustheit – oder Verlässlichkeit – der Vorhersagen.

Podium mit Zuschauenden in Schloss Herrenhausen.
Dr. Sibylle Anderl, Leiterin des Wissenschaftsressorts der Frankfurter Allgemeinen Zeitung und der Frankfurter Allgemeinen Sonntagszeitung, hat das Podium moderiert. (Foto: Philip Bartz/VolkswagenStiftung)

Entspannt mit Unsicherheiten leben

Gleichwohl betonten die Podiumsteilnehmenden im Lauf des Gespräches immer wieder, dass jedes wissenschaftliche Modell eine Reduktion der Realität und ein Maß an Abstraktion davon bedeute, mit Unsicherheiten behaftet sei und nur im Kontext seiner Zielsetzung und im Rahmen der offenen, ehrlichen und konkreten Darstellung der zugrunde gelegten Annahmen zu Rate gezogen werden dürfe. Gelfert äußerte zudem die Hoffnung, dass in der Öffentlichkeit eine gewisse Toleranz gegenüber der inhärenten Ambiguität wissenschaftlicher Forschung erwachsen könne.

Thorsten Pachur setzt auf gute grafische und visuelle Darstellungen, die Menschen helfen können, Unsicherheiten einzuschätzen. "Und jede und jeder kennt die Wettervorhersage", bemerkte er. "Diese allgemeine Vertrautheit mit probabilistischen Aussagen könnten wir als Grundlage nehmen, um auszudrücken, dass Modelle eine gewisse Bandbreite an Vorhersagen machen – die immerhin den Möglichkeitsraum von Dingen, die passieren könnten, deutlich einschränkt." Wie man im Umgang mit Modellen das Präventionsparadoxon berücksichtigen könne, fragte schließlich Sibylle Anderl; also dem Phänomen, dass die schlimmsten Vorhersagen oft nicht eintreffen, weil Menschen aufgrund der Vorhersage ihr Verhalten vorbeugend ändern. Einerseits gebe es Methoden, dieses Paradoxon formal in ein Modell einzubauen, antwortete Pachur. Für wichtiger hält er allerdings, die grundlegende Natur eines Modells immer wieder deutlich zu machen: Ändern sich die Bedingungen, ändert sich auch die Vorhersage. "Wenn wir diesen 'Feedback-Loop' klar kommunizieren, können wir entspannter mit Modellen leben."

von Dr. Ulrike Schneeweiß