Eine Hand hält einen digital Kreis mit einem Hund darin hoch.
Sergey Nivens/Shotshop/picture alliance

Forschung
Wie Simulationen Tierversuche ersetzen

Computermodelle können komplexe Systeme wie das eines Tieres simulieren. Das soll die Zahl an Tierversuchen reduzieren.

Von Peter Jedlička 09.10.2023

"Das beste ... Modell einer Katze ist eine andere oder vorzugsweise die gleiche Katze." Dieses Zitat stammt von Norbert Wiener, dem Vater der Kybernetik. Tatsächlich ist es nicht möglich, alle Details eines komplexen Systems wie einer Katze oder eines Menschen eins zu eins als mathematisches Computermodell zu implementieren und zu simulieren. Warum gelten Computermodelle dann als eine der möglichen 3R-Ersatzmethoden für Tierversuche? 

Was ist 3R?

Die Autoren des 3R-Konzepts (Replace, Reduce, Refine) Russel und Burch (1959), definierten "Replacement" als "jede wissenschaftliche Methode, bei der nicht empfindungsfähiges Material verwendet wird, das … Methoden ersetzen kann, bei denen bewusste lebende Wirbeltiere verwendet werden". Unter "Reduction" verstehen sie die Verringerung der Anzahl der Tiere, die zur Gewinnung relevanter wissenschaftlicher Informationen verwendet werden. In diesem Sinne werden in der 3R-Forschung in vitro- und in silico-Ansätze entwickelt, die den Ersatz und die Reduktion von Tierversuchen unterstützen. "Refinement" bezieht sich auf Verbesserungen der Versuche und der Tierhaltung, die das Leiden der Tiere beseitigen oder minimieren. 

Welche Computermodelle sind 3R-relevant?

Um die eingangs gestellte Frage zu beantworten, muss erläutert werden, was Computermodelle leisten können und wo ihre Grenzen liegen. Jedes mathematische Modell ist eine Abstraktion der Realität und notwendigerweise vereinfachend. Wäre ein Modell der Katze so komplex (1:1) wie die Katze selbst, wir würden die Katze zwar simulieren, aber ohne eine Reduktion der Komplexität nicht besser verstehen können. Gute Modelle sind Modelle mit einer angemessenen Detailtiefe (das heißt einem angemessenen Gleichgewicht zwischen Komplexität und Einfachheit), die uns helfen, allgemein gültige Prinzipien für alle Organismen (zum Beispiel alle Katzen oder alle Säugetiere und so weiter) zu entschlüsseln. Hilfreiche Modelle sind zum Beispiel solche, die uns zeigen, welche Komponenten und Mechanismen notwendig und/oder ausreichend sind, um ein untersuchtes Phänomen zu erklären.

Mathematische Computermodelle sind im Allgemeinen in der Lage, die Beziehungen zwischen einer oder mehreren Kontrollvariablen (zum Beispiel der Konzentration eines Medikaments) und den gemessenen (abhängigen) Variablen (zum Beispiel der Feuerrate einer Nervenzelle) zu erfassen. Wenn solche Modelle experimentell validiert sind, können sie Vorhersagen über das Verhalten eines Systems machen.

Auf diese Weise kann jedes mathematische Modell im Prinzip die Anzahl der Experimente reduzieren. Es müssen nur wenige Datenpunkte gemessen werden, da die übrigen Datenpunkte (bei anderen Werten der Kontrollvariablen, zum Beispiel bei anderen Zeitpunkten oder Konzentrationen) durch das Modell berechnet werden können. 

Vereinfacht lässt sich sagen, dass es zwei verschiedene Arten von 3R-relevanten Computermodellen gibt, nämlich statistische und mechanistische Modelle. Unter statistischen Modellen versteht man sowohl klassische statistische Modelle als auch Modelle des modernen maschinellen Lernens (zum Beispiel Deep Learning Modelle künstlicher neuronaler Netze). Der einzige Unterschied besteht darin, dass bei klassischen statistischen Modellen die Parameter durch statistische Berechnungen festgelegt werden, während beim maschinellen Lernen die Parameter während des Trainings des Modells festgelegt werden.

Im Gegensatz zu statistischen Modellen versuchen mechanistische Modelle eine realistische mathematische Beschreibung der anatomischen, physiologischen, biophysikalischen oder biochemischen Mechanismen des untersuchten Systems zu implementieren. Auch mechanistische Modelle können die Input-Output-Beziehungen berechnen, jedoch nicht nur statistisch, sondern mit dem Anspruch, die Mechanismen des Systems tiefer zu verstehen.

Positive Beispiele für den 3R-Einsatz der Computermodellierung

Sowohl statistische als auch mechanistische Modelle werden erfolgreich als 3R-Verfahren eingesetzt. So hat das Team um Thomas Hartung maschinelles Lernen auf toxikologische Daten von zehn Millionen chemischen Substanzen ("Big Data") angewendet und damit die Reproduzierbarkeit von Tierversuchen sogar übertroffen (Luechtefeld et al. 2018). Sein Modell wurde unter anderem mit zahlreichen (vorhandenen) Daten aus Tierversuchen trainiert. Dies umfasste insbesondere die akuten Toxizitätsdaten von circa 48.000 Chemikalien aus der Registrierungsdatenbank der Europäischen Chemikalienagentur. Die Toxizitätsvorhersagen des Modells basierten auf dem Prinzip, dass ähnliche Chemikalien ähnliche Wirkungen haben. Für diese und andere 3R-relevante Forschungsergebnisse wurde Hartung in 2020 mit dem Ursula M. Händel-Tierschutzpreis der DFG ausgezeichnet.

Auch mechanistische Modelle wurden bereits erfolgreich als eine 3R-relevante Alternative zu tierbasierten Experimenten eingesetzt. Ein Computermodell der menschlichen Bauchspeicheldrüse wurde auf der Grundlage umfangreicher menschlicher Daten erstellt, über Jahrzehnte verbessert und erfasst auch die interindividuelle Variabilität der Insulinsekretion (Visentin et al. 2018, Dalla Libera et al. 2023). Es hilft beispielsweise, den optimalen Zeitpunkt und die optimale Dosis der Insulingabe vorherzusagen (Visentin et al. 2016). Dieses Modell wurde sogar von der Food and Drug Administration als Ersatz für präklinische Tierversuche für neue Behandlungsstrategien des Diabetes mellitus Typ 1 akzeptiert. 

Weitere Beispiele sind mechanistische biophysikalische Modelle von Herzzellen (Britton et al. 2013). Solche Modelle ermöglichen pharmakologische und toxikologische in silico-Studien, die Tierversuche ergänzen, reduzieren und teilweise sogar ersetzen können (Britton et al. 2013, Passini et al. 2017). Ähnlich detaillierte biophysikalische Modelle werden auch für Nervenzellen konstruiert (z.B. Cuntz et al. 2021, Allam et al. 2021).

Multiple Realisierbarkeit? Offene Forschungsfragen 

In der mechanistisch detaillierten Modellierung gibt es allerdings ein ungelöstes Problem, nämlich, dass ein realistisches Modellverhalten (im Sinne des Outputs) durch mehr als eine Kombination von Parametern (z.B. von Ionenkanaleigenschaften) erreicht wer­den kann. Man spricht von sogenannter "Degeneriertheit" (degeneracy), "Nicht-Einzigartigkeit" (non-uniqueness) oder "multipler Realisierbarkeit" (Edelman & Gally 2001, Goaillard & Marder 2021, Stöber et al. 2022). Die Degeneriertheit findet sich auch in realen biologischen Organismen, wo sie Komplexität, Robustheit und Evolvierbarkeit unterstützt (Whitacre & Bender 2010). In der Modellierung führt sie jedoch zu der Frage: Welche mechanistischen Parameter aus dem riesigen theoretisch möglichen Parameterraum sind in realen Zellen (Geweben, Organen etc.) vorhanden?

Eine mögliche Antwort auf diese Frage könnte das evolutionäre Denken liefern. Demzufolge hat die evolutionäre Selektion über Jahrmillionen suboptimale Punkte (Phänotypen) aus dem Parameterraum entfernt (Shoval et al. 2012). Evolutionäre Kom­promisse (trade-offs) zwischen verschiedenen Aufgaben von Zellen oder Organismen (z.B. Energieeffizienz versus Flexibilität) haben möglicherweise den Parameterraum auf eine Pareto-Front vereinfacht (Shoval et al. 2012). Dies könnte potenziell ausgenutzt werden, indem Simulationen großer Modellpopulationen in Kombination mit einem Mehrzieloptimalitätsansatz (Pareto) kombiniert werden (Jedlicka et al. 2022). Auf diese Weise könnten die Modelle verbessert und ihre Vorhersagekraft erhöht werden.

Synergien zwischen verschiedenen Computermodellen

Datenanalyse und Modellierung stützen sich zunehmend auf Werkzeuge der KI und des maschinellen Lernens. Statistische und mechanistische Modelle können fruchtbar kombiniert werden (siehe Bernaerts et al. 2023). Beispielsweise tragen statistische Modelle, die auf tiefen Netzwerken und Bayesscher Inferenz basieren, zur Verbesserung mechanistischer Modelle bei (Gonçalves et al. 2020). Sie unterstützen eine effiziente Suche nach Parametern, die realistische mechanistische Simulationen experimenteller Daten erzeugen. Dieser Ansatz (SBI – simulation-based inference) lässt sich auf eine Vielzahl von computergestützten Untersuchungen in verschiedenen Bereichen der Biologie oder Medizin anwenden und unterstützt damit die 3R-Strategien.

Die Computermodellierung kann auch zur Entwicklung neuer in vitro Modelle (z.B. organotypische Zellkulturen oder menschliche Organoide) beitragen und umgekehrt. Will man komplexe Phänomene auf multiplen Zeit- und Raumskalen sowie in verschiedenen Gewebetypen, Organen oder Organismen besser verstehen, stößt man häufig an die Grenzen isolierter Ansätze. Für viele Fragestellungen ist gerade die Kombination von in vitro-, in vivo- und in silico-Methoden von Vorteil und führt zu unerwarteten Synergien. Durch den iterativen Einsatz mehrerer Methoden erreicht man durch Synergieeffekte oft mehr als die Summe ihrer Ergebnisse. Die Hoffnung ist, dass durch die Wiederholung der kombinierten in vitro-, in vivo- und in silico-Schritte die Effektivität und Aussagekraft der Ersatzmethoden (der Computer- und Zellkulturmodelle oder Organoide) sukzessive gesteigert werden kann.

Es ist daher sehr wahrscheinlich, dass in Zukunft die Zahl der Tierversuche durch innovative Ersatzmethoden deutlich reduziert werden kann. Vielversprechend ist dies vor allem für Ersatzmethoden, die überwiegend oder ausschließlich auf humanen Daten beruhen. So wird derzeit intensiv daran gearbeitet, aus humanen iPS-Zellen (induzierte pluripotente Stammzellen) verschiedene Zellen, Gewebe und organähnliche Systeme (Organoide – wie Miniherzen oder Minihirne) herzustellen. Die Kombination menschlicher Organoide mit KI-Analyse sowie statistischer und mechanistischer Modellierung könn­te die 3R-Forschung erheblich voranbringen. 

Auf Tierversuche kann noch nicht vollständig verzichtet werden

Wie bereits beschrieben, können bereits heute biologische und medizinische Hypothesen mit Hilfe von in silico-Methoden, einschließlich Computermodellen, getestet werden, bevor sie in vitro (z. B. in einer Zellkultur) überprüft werden. Tierversuche sind jedoch nach wie vor notwendig, wenn (insbesondere neu entdeckte) Mechanismen auf der systemischen Ebene des Gesamtorganismus (in vivo) untersucht werden müssen. So können zum Beispiel viele synaptische oder zelluläre Mechanismen von Lernprozessen heute sehr gut im isolierten Nervengewebe oder im Computer untersucht werden, aber bei komplexem Lernverhalten ist dies derzeit nur im Tierversuch möglich. 

Dies bedeutet, dass, obwohl viele wissenschaftliche Probleme erfolgreich durch in silico- und in vitro-Methoden gelöst werden können, für bestimmte Fragestellungen auf Tierversuche noch nicht verzichtet werden kann. Experimentelle Daten aus Tierversuchen können z.B. notwendig sein, um die Parameter von Computermodellen, die Tierversuche ersetzen sollen, realitätsnah einzustellen. Oft hat man Glück und die Tierversuchsdaten sind bereits in Datenbanken verfügbar. Der "Open Access" von Daten und Ergebnissen hat daher eine hohe 3R-Relevanz und trägt zur Reduktion der Tierversuchszahlen bei.