Medizinischer Fortschritt ist wichtig - Tierversuche sind der falsche Weg!
12. November 2008
Zusammenfassung
Die wissenschaftliche Studie belegt, dass allein schon der Umgang mit Versuchstieren erheblichen Einfluss auf die Ergebnisse von Tierversuchen hat. Bloßes Anfassen ruft bei Mäusen bereits starke Stresserscheinungen hervor.
Mäuse, Ratten. Kaninchen, Hunde, Gänse und andere Tiere werden durch Routine-Untersuchungen wesentlich mehr gestresst, als bislang angenommen. Die Stressreaktionen verfälschen die Tierversuchs-Daten. Zu diesem Ergebnis kommt eine wissenschaftliche Studie, die in der Dezember-Ausgabe eines Fachjournals für Versuchstierkunde erschienen ist. Verhaltensforscher Dr. Jonathan Balcombe vom amerikanischen »Ärztekomitee für verantwortungsvolle Medizin« untersuchte 80 Publikationen zu Eingriffen an Versuchstieren. Allein schon das Hochheben einer Maus ruft bei dem Tier eine Reihe von Körperreaktionen hervor. Stresshormone im Blut steigen, der Puls rast, der Blutdruck geht in die Höhe. Diese Symptome sind noch nach einer Stunde nachweisbar. Auf Routine-Eingriffe, wie Blutentnahmen und Zwangsfütterung mit einer Magensonde reagieren die Tiere mit Angst und Panik. Die Stresswerte im Blut steigen und die Immunabwehr sinkt. Dies geschieht schon vor dem eigentlichen Experiment. Der Autor folgert, dass es »keine humanen Experimente gibt« und dass die Forschungsergebnisse verfälscht werden können.
Quelle
Titel: Laboratory Routines Cause Animal Stress.
Autoren: Balcombe, J., Barnard, N. D. and Sandusky, C.
Institut: Physicians Committee for Responsible Medicine (PCRM), Washington
Zeitschrift: Contemporary Topics in Laboratory Animal Science 2004, 43, 42-51
Artikel als PDF
13. November 2008
Zusammenfassung
Es wurden 51 in Bayern genehmigte Tierversuchsanträge zwischen 1991 und 1993 analysiert, unter anderem hinsichtlich der Frage, inwieweit die Belastung für die Tiere im Versuch wirklich den Angaben im Versuchsantrag entsprach. Als Maßstab wurde dabei der vom Schweizer Bundesamt für Veterinärwesen erarbeitete Belastungskatalog herangezogen. Es zeigte sich, dass Zweidrittel der Antragsteller die Belastung der Tiere zu niedrig eingeschätzten, kein einziger zu hoch.
Außerdem wurde untersucht, ob die Projekte je zu wissenschaftlich weiterführenden Erkenntnissen beitrugen. Von den 51 genehmigten Tierversuchen waren 35 ausdrücklich vom Antragsteller NICHT als Grundlagenforschung deklariert. Trotzdem erreichten von diesen 35 nur 8 das angegebene Versuchsziel und 3 erreichten es teilweise.
Ein Erreichen des Versuchsziels sagt allerdings nichts darüber aus, ob tatsächlich ein Nutzen für die Medizin oder gar für Patienten daraus gezogen werden konnte.
Erstaunlich war weiter, dass das Versuchsziel umso häufiger erreicht wurde, je geringer die Belastung der Tiere im Versuch war und je evolutionär niedriger die gewählte Versuchstierart war. Insbesondere erreichte kein einziger der Versuche mit schwerster Belastung für das Tier das Versuchsziel. Weiter ergab sich ein Zusammenhang zwischen der Qualität des Versuchsantrags und dem Erreichen des Versuchsziels.
Die Autoren kamen zum Schluss, dass Anträge mit Standardformulierungen nur mit der Häufigkeit von Zufallstreffern für den Menschen relevante Erkenntnisse lieferten. Sie fordern Versuchsvorhaben einer strikten Erfolgskontrolle zu unterwerfen.
Quelle
Titel: Evaluation von genehmigten tierexperimentellen Versuchsvorhaben in Bezug auf das Forschungsziel, den wissenschaftlichen Nutzen und die medizinische Relevanz
Autoren: Lindl T, Weichenmeier I, Labahn D, Gruber FP, Völkel M
Zeitschrift: Altex 2001; 18 (3); 171-178
Artikel als PDF
13. November 2008
Zusammenfassung
Eine an der University of Waterloo in Ontario, Kanada, durchgeführte Literaturrecherche untersuchte die Zitierhäufigkeit von 594 tierexperimentellen Studien über einen Zeitraum von zehn Jahren. Rund 94 Prozent der Arbeiten wurden weniger als 100mal in zehn Jahren zitiert, das heißt, sie wurden von der Fachwelt als unwichtig erachtet.
Die kanadischen Wissenschaftler untersuchten weiterhin, ob sich eine schlechte Zitierhäufigkeit, das heißt, schlechte Qualität der Arbeit, auf die Forschungstätigkeit auswirkt. Das Ergebnis: Nein! Wenig zitierte Forscher machten jahrelang so weiter wie immer, wobei ihre Ergebnisse noch nicht einmal in der Fachwelt Beachtung fanden.
Quelle
Titel: Levels of citation of nonhuman animal studies conducted at a Canadian Research Hospital
Autoren: Dagg AI, Seidle TK
Zeitschrift: Journal of Applied Animal Welfare Science 2004; 7, 205-213
Artikel als PDF
12. November 2008
Zusammenfassung
Britische Wissenschaftler haben herausgefunden, dass die Ergebnisse von Tierversuchen häufig keine Relevanz für den Menschen haben. Sie fordern eine Überprüfung der tierexperimentellen Forschung, da sie den Nutzen von Tierversuchen für den Menschen generell in Frage stellen.
Die im British Medical Journal, einer der drei weltweit angesehensten medizinischen Fachzeitschriften, erschienene Studie einer Arbeitsgruppe um Prof. Ian Roberts von der London School of Hygiene and Tropical Medicine geht der Frage nach der klinischen Verwertbarkeit von Tierversuchen nach. Dazu wurden verschiedene Übersichtsartikel ausgewertet, die Ergebnisse aus Tierversuchen mit den entsprechenden klinischen Untersuchungen vergleichen.
Die eingehende Analyse dieser Arbeiten zeigte zahlreiche Mängel im tierexperimentellen System auf. So unterscheiden sich die Ergebnisse von gleichermaßen an Tieren und Menschen durchgeführten Studien oft ganz erheblich voneinander. Außerdem finden Tierversuche häufig nicht vor klinischen Versuchen statt sondern gleichzeitig, was ihre Relevanz für den Menschen noch weiter in Frage stellt. Wenn Tierversuche klinischen Studien vorausgehen, so verhindern negative Resultate oft nicht, dass entsprechende Tests doch noch am Menschen stattfinden, wodurch die vorangegangenen Tierversuche ad absurdum geführt werden. Die ungenauen Ergebnisse aus Tierversuchen können Patienten gefährden und sind zudem eine Verschwendung von Forschungsgeldern. Weiter kritisieren die britischen Wissenschaftler, dass trotz der aufgezeigten Schwachpunkte mehr Geld in die experimentelle Grundlagenforschung gesteckt wird als in klinische Studien. Die Autoren fordern eine rigorose Überprüfung, ob Tierversuche überhaupt einen nachweisbaren Nutzen bringen, bevor man weitere Experimente durchführt.
Quelle
Titel: Where is the evidence that animal research benefits humans?
Autoren: Pandora Pound (1), Shah Ebrahim (1), Peter Sandercock (2), Michael B Bracken (3), Ian Roberts (4)*
Institute: (1) Department of Social Medicine, University of Bristol, Bristol BS8 2PR, (2) Department of Clinical Neurosciences, University of Edinburgh, Western General Hospital, Edinburgh EH4 2XU, (3) Center for Perinatal, Pediatric, and Environmental Epidemiology, Yale University School of Medicine, New Haven, CT 06520 USA, (4) London School of Hygiene and Tropical Medicine, London WC1B 3DP
Zeitschrift: British Medical Journal 2004: 328, 514-517
Artikel als PDF
12. November 2008
Zusammenfassung
„Tierexperimentell tätige Wissenschaftler müssen nach den gesetzlichen Vorschriften der Bundesrepublik Deutschland in ihren Anträgen auf Genehmigung eines Tierversuchsvorhabens begründen, inwieweit diese Tierversuche ethisch und wissenschaftlich gerechtfertigt sind. Als Begründung wird meist auf das fehlende Verständnis der Zusammenhänge bei der Entstehung von Krankheiten bzw. mit dem Fehlen entsprechender Therapien am Menschen hingewiesen.
Die Basis für die vorliegende Studie waren die bei den Genehmigungsbehörden eingereichten Forschungsanträge biomedizinischer Arbeitsgruppen aus drei Universitäten in Bayern. Einbezogen wurden 16 Anträge, die von 1991 bis 1993 in einer Tierversuchskommission nach § 15 des Tierschutzgesetzes eingereicht, bewilligt und in einer vorausgegangenen Studie (Toni Lindl et al., 2001) als erfolgreich eingestuft wurden.
Untersucht wurden die Zitierhäufigkeit, der Zitierverlauf und die Frage, in welche Forschungen die Primärzitate eingegangen sind: ob in weiteren tierexperimentellen Studien, in in vitro-Studien, in klinischen Studien oder in Übersichtsartikeln (sog. Reviews). Von ausschließlichem Interesse war, ob die Wissenschaftler das in den Anträgen postulierte Versuchsziel, eine neue Therapie oder überhaupt klinisch Relevantes zu entwickeln, erreichen konnten.
Das Ergebnis war enttäuschend: Es konnten zwar 97 klinisch orientierte Veröffentlichungen ermittelt werden, welche die oben erwähnten Publikationen zitierten (8% aller Zitierungen), aber nur bei 4 Studien (0,3%) wurde ein direkter Zusammenhang zwischen den tierexperimentellen Befunden der Antragsteller und den gefundenen Ergebnissen am Menschen hergestellt. Doch selbst hier konnte die im Tierversuch bestätigte Hypothese klinisch nicht in eine neue Therapie am Menschen umgesetzt werden. Entweder war kein therapeutischer Effekt nachweisbar, oder die Befunde am Menschen widersprachen sogar den Ergebnissen am Tier.
Als Konsequenz dieser Studie wird gefordert, die gesetzlichen Begründungen für einen Tierversuch durch die Behörde strenger zu prüfen und projektspezifische Argumente zu fordern, anstatt pauschale Begründungen zu dulden. Ferner müssen die Kompetenzen der prüfenden Behörden und der beratenden Kommissionen nach § 15 des TSchG dringend erweitert werden.“
Quelle
Titel: Tierversuche in der biomedizinischen Forschung - Eine Bestandsaufnahme der klinischen Relevanz von genehmigten Tierversuchsvorhaben: Nach 10 Jahren keine Umsetzung in der Humanmedizin nachweisbar.
Autoren: Toni Lindl (1), Manfred Völkel (2) und Roman Kolar (3)
Institute: (1) Institut für angewandte Zellkultur, München, (2) Tierversuchskommission Nordbayern, Regierung von Unterfranken, Würzburg, (3) Tierschutzakademie Neubiberg, Neubiberg
Zeitschrift: ALTEX 2005, 22(3), 143-151
Artikel als PDF
12. November 2008
Zusammenfassung
Die Standard-Haltungsbedingen von Ratten, Mäusen und anderen Nagetieren verursachen körperliche und seelische Schäden bei den Tieren, weswegen die Verwendung von Tieren zu Versuchszwecken aus ethischen und wissenschaftlichen Gründen generell in Frage gestellt werden muss. Zu diesem Ergebnis kommt eine im Juli 2006 im Wissenschaftsjournal »Laboratory Animals« erschienene Studie.
Verhaltensforscher Dr. Jonathan Balcombe vom Ärztekomitee für verantwortliche Medizin in Washington untersuchte 200 Publikationen über die Haltungsbedingungen von Versuchsnagern. Normalerweise leben die Tiere in kleinen Plastikschachteln mit Drahtdeckel, die wie Schubladen über- und nebeneinander in großen Regalen stecken. In den Kästen befindet sich üblicherweise außer den Tieren nur Einstreu und sonst nichts. Balcombes Ergebnisse: Ratten und Mäuse sind bereit für eine interessantere Umgebung, für die Möglichkeit Nester zu bauen und Sozialkontakt zu ihren Artgenossen zu pflegen Arbeit auf sich zu nehmen; Ratten in steriler Haltung haben kleinere Gehirne als Tiere in einer abwechslungsreichen Umgebung; einzeln gehaltene Ratten versuchen häufiger ihren Käfigen zu entkommen als in Gruppen lebende; Millionen Labormäuse in aller Welt kratzen, graben und drehen sich neurotische jede Nacht im Kreis, während die Experimentatoren längst nach Hause gegangen sind.
»Diese Ergebnisse sind ein weiterer Beweis dafür, dass es keine harmlosen Tierversuche gibt«, schließt Balcombe.
Quelle
Titel: Laboratory Environments and Rodents' Behavioral Needs: A Review
Autor: Jonathan Balcombe
Institut: Physicians Committee for Responsible Medicine (PCRM), Washington, USA,
Zeitschrift: Laboratory Animals, July 2006, 40(3), 217-235
Artikel als PDF
12. November 2008
Das renommierte Wissenschaftsjournal NATURE titelte im Dezember 2006 »Tierversuche wegen schlechter Planung unter Beschuss«. Der kritische Artikel basiert auf einer aktuellen Studie britischer Wissenschaftler (siehe unten).
Zusammenfassung
Ein Team von britischen Medizinern decken erhebliche Unterschiede zwischen Tierversuchen und klinischen Studien auf. Die systematische Untersuchung vergleicht die Ergebnisse verschiedener Behandlungsmethoden bei Versuchstieren und Patienten. Dazu wurden entsprechende Artikel in Fachzeitschriften analysiert. Bei nur drei der sechs untersuchten Krankheitsbilder gab es Übereinstimmungen, bei der anderen Hälfte nicht. Zum Beispiel hilft Kortison Versuchstieren mit einer künstlich beigebrachten Kopfverletzung.
Bei menschlichen Patienten konnte diese Wirkung nicht festgestellt werden. Bei Tieren konnte ein Schlaganfall mit dem Medikament Tirilazad erfolgreich behandelt werden. Beim Menschen nützte es nichts oder war sogar schädlich. Umgekehrt war die Gabe von antifibrinolytischen Medikamenten bei Hirnblutungen bei Patienten hilfreich, im Tierversuch jedoch nicht.
Die Autoren kritisieren auch die unrealistische Nachahmung klinischer Beschwerden. So erhielten Nagetiere zehn Minuten nach einem künstlich beigebrachten Schlaganfall eine Behandlung, während Menschen oft erst nach 24 Stunden behandelt wurden. Weiterhin fanden die Wissenschaftler Beweise für Voreingenommenheit bei der Veröffentlichung. Studien mit unerwünschten Ergebnissen würden oft nicht publiziert werden.
Zwar könne aufgrund einer Analyse von nur sechs Behandlungsmethoden kein pauschales Urteil über Tierversuche gefällt werden, heißt es in dem Artikel, aber die Ergebnisse machen die Grenzen bei der Übertragung von Tierversuchsergebnissen auf die klinische Situation deutlich.
Quelle
Titel: Comparison of treatment effects between animal experiments and clinical trials: systematic review
Autoren: Pablo Perel (1), Ian Roberts (1), Emily Sena (2), Philipa Wheble (2), Catherine Briscoe (2), Peter Sandercock (2), Malcolm Macleod (2), Luciano E. Mignini (3), Pradeep Jayaram (4), Khalid S. Khan (4)
Institute: (1) Crash Trieal Coordinating Centre, London School of Hygiene and Tropical Medicine, London WC1E 7HT, UK, (2) Clinical Neuroscience, University of Edinburgh, UK, (3) Centro Rosarino de Estudios Perinatales, WHO Collaborative Centre in Maternal and Child Health, Rosario 2000, Argentinien, (4) Division of Reproductive and Child Health, Birmingham Woman's Hospital, University of Birmingham, UK
Zeitschrift: BMJ 2007: 334(7586); 197 doi:10.1136/bmj.39048.407928.BE
Artikel als PDF
11. September 2009
Toxikologe hält die heutige Praxis der Giftprüfungen für überholungsbedürftig und zeigt Strategien für eine Toxikologie des 21. Jahrhunderts auf
Professor Thomas Hartung ist Professor für Pharmakologie und Toxikologie an der Universität Konstanz, Professor und Lehrstuhlinhaber an der John Hopkins Universität Baltimore (USA) und Direktor des John Hopkins Zentrums für Alternativmethoden zu Tierversuchen. Er kritisiert in dem renommierten Wissenschaftsmagazin Nature die heute üblichen Giftprüfungen (Toxikologie) und befasst sich mit der Frage, ob die gegenwärtige Praxis, chemische Substanzen mit Tierexperimenten auf Giftwirkung zu prüfen, für REACH, dem bisher größten EU-Sicherheitsprogramm, ausreicht. Im Rahmen der EU-Richtlinie REACH sollen 30.000 Substanzen, die vor 1981 auf den Markt gekommen sind, auf ihre Gefährlichkeit getestet werden. Dabei greift die EU größtenteils auf althergebrachte Tierversuche zurück.
Der Autor des Artikels weist auf schon lange bekannte Unzulänglichkeiten der angewendeten Tierversuche hin: Menschen sind keine 70-kg-Ratten. Wir leben in anderen Umgebungen als Labortiere, leben länger als diese und haben einen anderen Stoffwechsel. Als Beispiele nennt er den LD50-Test, die Giftmenge, die 50 % der Versuchstiere tötet, und einen Hautreizungstest, die nur sehr schlecht in ihren Ergebnissen bei Menschen und z. B. Ratten als gängigen „Modellen“ übereinstimmen. Professor Hartung fragt somit zu recht: Wie aussagekräftig und »brauchbar« sind diese sogenannten »Tiermodelle«?
Da zudem alle möglichen Effekte geprüft werden sollen, wird die Testplanung „konservativ“ durchgeführt, also hohe und höchste Dosierungen jenseits der wirklich bei Vergiftungen vorkommenden eingesetzt, um tatsächlich Wirkungen sehen zu können. Die Ergebnisse stimmen daher oft nicht mit denen überein, die in der Wirklichkeit am häufigsten zu erwarten sind. Zudem werden viele verschiedene Giftwirkungen gleichzeitig untersucht. Dieses führt leicht zu falschen Zuordnungen von Ursache und Wirkung. Und es stellt sich natürlich auch die Frage nach wirklich gesundheitsgefährdenden Effekten, nicht nur Gewebsreizung und Zerstörung, die gemessen werden.
Ein allgemeines, aber für die Aussage jedes Testes problematisches Phänomen ist die Tatsache, das Testergebnisse nicht nur Wirkungen erfassen, sondern auch nicht vorhandene Wirkungen als vorhanden anzeigen und echte Effekte übersehen. Nimmt man als Rechenbeispiel, wie Prof. Hartung dies im Artikel tut, nur die Fortpflanzungs- und Embryonenschädigung, die bei 5.500 Altchemikalien durchgeführt werden soll, liegt die Trefferquote nur bei 60%, im Gegensatz zu 40 % fälschlicherweise als giftig eingestuften Substanzen. 83 der 138 bekannt giftigen Substanzen werden so gefunden, aber 2.145 ungiftige Substanzen irrtümlich zu Gift erklärt. Bei der herkömmlichen Vorgehensweise wird nun in einer weiteren Tierart getestet. Von den 3.272 Chemikalien, die im ersten Test negativ waren, werden nun weitere 1.309 zum Gift erklärt. Gleichzeitig werden nur 33 von 55 giftigen Substanzen, die im ersten Test nicht erkannt wurden, erfasst. Insgesamt werden somit 116 von 138 echten Giften erkannt, und 3.454 ungiftige Substanzen zu Giften erklärt - ein eher zweifelhaftes Verhältnis.
Eine einfache Änderung bei der Testung von Substanzen würde laut Hartung zwei Ansätze kombinieren:
- Roboterautomatisierte Vielfachtests (Screening) würden die möglichen Gifte zuverlässiger identifizieren, was schon aus Kostengründen (sic!) in vitro, also mit tierversuchsfreien Verfahren, geschieht;
- Bestätigung der gescreenten Substanzen in für sie geeigneten In-vitro-Tests
Die Testung von potentiellen Arzneimitteln ist noch problematischer als die von Chemikalien. Bei den Medikamentenprüfungen fällt ein großer Anteil der Stoffe (8-30%) allein wegen Sicherheitsproblemen bei der Anwendung am Menschen durch – obwohl sie in den Tierversuchen unauffällig waren. Hinzu kommen noch die Substanzen, die in der Wirkung versagen oder bei denen sich erst nach der Zulassung die unerwünschten Seiten zeigen, wie z. B. beim Rheumamittel Vioxx. Darüber hinaus können neue Medikamente aus Teilen menschlicher Zellen (sogenannte Biologicals) nicht wie chemische Stoffe im Tierversuch getestet werden, denn ihre Wirkung tritt ausschließlich beim Menschen ein, oder sie werden von tierischen Immunsystemen zerstört. Diese Medikamente machen mittlerweile ca. 50 % der neu zugelassenen Substanzen aus. Der Druck auf die Toxikologie, dafür auf humanen Zellen basierende Modelle zur Giftigkeitsprüfung zu entwickeln, wird damit enorm.
In der Medizin müssen Diagnose und Therapie objektiv beurteilbar sein, um für den einzelnen Patienten optimale Entscheidungen zu treffen. Diese sogenannte evidenzbasierte Medizin (EBM) beurteilt den Wert einer Behandlung systematisch nach den Behandlungsergebnissen und –erfolgen. Damit ist sie in eine Vorreiter- und Lenkungsrolle geschlüpft. Bereits 5.000 Leitlinien zu häufigen Behandlungsfeldern liegen vor. Toxikologe Hartung legt zu Recht nahe, diesen EBM-Ansatz in die Toxikologie zu übertragen.
Die Schwierigkeiten der bisherigen Toxikologie macht der Experte an einem Fleckentferner-Wirkstoff anschaulich. Sechs Studien stuften ihn als nicht krebserregend ein, 10 als krebserregend in Tieren, wahrscheinlich aber nicht in Menschen, 9 schätzten ihn als begründetermaßen krebsverdächtigen Stoff für Menschen ein ohne gesellschaftlich-gesundheitswissenschaftliche Belege und 4 kamen zum Schluss, dass es für die krebserregende Wirkung rationale Begründungen und gesundheitswissenschaftliche Belege gibt. Ein Durcheinander - und gleichzeitig Beleg für die Reformbedürftigkeit.
Professor Hartung fordert daher eine vollkommen neue Strategie auf Basis der weiterentwickelten Zellkulturen, ganz besonders der dreidimensionalen Vielfach-Zellkulturen, die Organe in Struktur und Funktion nachahmen. Stand bisher nur Gewebe aus Operationen zur Verfügung, können Stammzelltechnologie und Computersimulationen (sog. in-silico-Technik) die Auswahl bereichern. Dahinter steht ein Strategiewechsel: Charakterisierung von Wirkstoffen durch die Aufklärung und Bewertung von Merkmalsmustern statt einzelner Merkmale.
Internationale Unternehmen, gerade im Bereich Chemie und Pharma, halten an überlieferten Tierversuchen fest, bis der letzte wichtige Markt neue Verfahren einführt. Das Hauptproblem, legt Professor Hartung dar, ist hier die wechselseitige Verflechtung von wissenschaftlichen, politischen und behördlichen Meinungsführer. Diese erzeugt politische und gesetzliche Kompromisse, auch im Sinne von Absicherung der Verantwortung, zugunsten jahrzehntelang durchgeführter »etablierter« Tierversuche. Dieses System wird dadurch besonders gestützt, dass es bequem für die Konzerne ist. Eine berechenbares Spektrum an Tests, dass für planbare Anforderungen an Zeit und Kosten sorgt, wird abgearbeitet. Damit ist die Industrie alle Verantwortung los. Daher sind an diesem Punkt die Gesetzgeber in einer Schlüsselposition.
Die US-Umweltschutz-Behörde EPA hat bereits zusammen mit anderen US-Behörden durch Einrichtung des ToxCast-Programms diesen Richtungswechsel in der Giftprüfung eingeleitet. In Europa hat neben der Diskussion um REACH, das Tierversuchsverbot für Kosmetika die Debatte angeheizt.
Was in Zukunft an Neuerungen kommt, so Hartung, sei ein rein wissenschaftlicher Prozess. Ohne den politischen Willen wird es aber zu keiner Umsetzung in die Praxis kommen, auch wegen der dafür nötigen öffentlichen Förderung. Die größte Herausforderung bleibt aber die Erarbeitung eines neuen verwaltungstechnischen regulatorischen Systems. Ein weiterer wichtiger Antrieb sind die Aufwendungen von 600 Millionen Euro jährlich allein in Europa nur für toxikologische Tests. Zusammen mit der neuen Strategie ermöglichen sie nicht nur qualitativ höherwertigere Aussagen, retten Menschenleben, fördern kleine und mittlere, innovative Unternehmen, vor allem ersparen sie vielen Millionen von Tieren großes Leid und einen qualvollen Tod.
Von entscheidender Wichtigkeit wird aber die Bereitschaft zum Systemwechsel sein, für den Professor Hartung plädiert: Dabei darf das neue nicht als Flicken für die Lücken und Unzulänglichkeiten des alten, tierversuchsbasierten Giftigkeitsprüfungssystems herhalten.
Quelle
Thomas Hartung: Toxicology for the twenty-first century. Nature, Vol. 460, 9 July 2009, 208- 212
29. Januar 2009
Eine im Januar 2009 veröffentlichte Studie untersuchte, ob sogenannte »Tiermodelle« potentielle Risiken für den Menschen vorhersagen können. Die Autoren gingen der Frage nach, ob es - insbesondere in den Bereichen Toxikologie und Pathophysiologie - zuverlässige Belege für die Brauchbarkeit von »Tiermodellen« für die Vorhersage möglicher Reaktionen von Menschen auf bestimmte Substanzen oder Therapien gibt. Das Ergebnis belegt, dass Mensch und Tier, sowie verschiedene Tierarten untereinander, nur unzureichende übereinstimmende Reaktionen zeigen, so dass »Tiermodelle« in der Vorhersage toxischer Wirkungen für den Menschen versagen.
Die Autoren führen verschiedene Studien an, in denen Aussagen zur Vorhersagekraft des »Tiermodells« für den Menschen getroffen werden und analysieren diese. Nicht berücksichtigt wurden dabei »Tiermodelle«, die in der Grundlagenforschung verwendet werden, da den Autoren zufolge hier von vornherein kein Anspruch auf ihre Vorhersagefähigkeit erhoben wird.
Die Untersuchung fordert, dass »Tiermodelle«, die der angeblichen Vorhersage der menschlichen Reaktion dienen, auch dahingehend überprüft werden müssen, ob und inwieweit sie diesen Anspruch erfüllen. Kann eine Versuchsanordnung, keine korrekten Vorhersagen für den Menschen treffen oder liefert sie nur ab und zu treffende Ergebnisse, dürfe diesem Modell keine Vorhersagefähigkeit zugebilligt werden.
Als Beispiel der Untersuchung des Vorhersagewertes eines »Tiermodells« für den Menschen wird eine Studie angeführt, in der die Wirkung von sechs Medikamenten im Tier und im Menschen verglichen wurde. Im Ergebnis zeigten Mensch und Tier in ca. 50% der Fälle eine ähnliche Empfindlichkeit, ein Ergebnis, das sich auch mit dem Werfen einer Münze erzielen lässt. Eine zuverlässige Vorhersage der Wirkung am Menschen konnte aus dem Tierversuch nicht getroffen werden.
In einer 1994 durchgeführten Studie wurden insgesamt 91 menschliche Vergiftungsreaktionen, die durch die Einnahme von 64 bereits auf dem Markt befindlichen Arzneien auftraten, mit der Wirkung am Tier verglichen. Im Tierversuch konnten 39 der 91 (43 %) klinisch beobachteten Fälle toxischer Effekte im Tierversuch nicht bestätigt werden. Dabei wurde als positive Vorhersage bereits gewertet, wenn nur irgendein Tier eine dem Menschen vergleichbare Reaktion zeigte.
Im Fall von Thalidomid (Wirkstoff des Schlaf- und Beruhigungsmittels Contergan) zeigte sich, dass die Vorhersage der missbildenden Wirkung am Menschen auch durch zahlreiche Versuche an verschiedenen Tierarten nicht zuverlässig getroffen werden konnte. Um rückwirkend die bekannten Effekte von Contergan zu beurteilen, wurde an verschiedenen »Tiermodellen« getestet. Neun Arten nicht-menschlicher Primaten zeigten die beim Menschen typischen Missbildungen von Armen und Beinen. Bei der Testung von 15 weiteren Substanzen, die beim Menschen als schädlich für das Ungeborene gelten, zeigten nur acht nicht-menschliche Primaten vergleichbare Missbildungen. Insgesamt ließen sich bei den unterschiedlichen getesteten »Tiermodelle« eine Vielfalt verschiedener Reaktionen beobachten, so dass zuverlässige Rückschlüsse für den Menschen nicht möglich waren.
Die sogenannte Olsen-Studie aus dem Jahr 2000 hatte zum Ziel, den Nutzen von »Tiermodellen« in der Vorhersage von Vergiftungen am Menschen nachzuweisen. Hierzu wurden von zwölf Pharmafirmen die Ergebnisse aus Versuchen an »Tiermodellen« dahingehend überprüft, ob sie mit der klinischen Beobachtung am Menschen übereinstimmten. Insgesamt wurden 150 Substanzen und 221 bekannte menschliche Vergiftungsfälle berücksichtigt. Im Ergebnis zeigte sich ein als positive Übereinstimmungsrate bezeichneter Wert von 63 % bei Nicht-Nagetieren und von 43 % bei Nagetieren.
Als Kritik an der Olsen Studie führen die Autoren an, dass diese im Auftrag der Industrie durchgeführt wurde, die möglicherweise ein besonderes Interesse daran hat, das »Tiermodell« als gute Wissenschaft zu bestätigen, so dass die Neutralität der Untersuchung nicht gewährleistet ist. Um die Ergebnisse aus Tierversuchen bezüglich der Relevanz für den Menschen positiver erscheinen zu lassen, wurden zudem neue Begriffe wie »positive Übereinstimmungsrate« erfunden, die kein Bestandteil der in der Wissenschaft üblichen statistischen Analysemethoden sind. Hiermit wird fälschlicherweise eine gute Vorhersagefähigkeit von »Tiermodellen« für den Menschen suggeriert. Darüber hinaus ging es in der Olsen-Studie um die Bestätigung von Effekten am Tier, die bei Menschen bereits bekannt waren. Dabei wurde jedes Tier, das dem Menschen vergleichbar reagierte, als positives Ergebnis gewertet – auch wenn von sechs untersuchten Tierarten nur eine die gleiche Reaktion zeigte wie der Mensch.
Zusammenfassend merken die Autoren an, dass Vorhersage aus wissenschaftlicher Sicht nicht bedeutet, rückwirkend im »Tiermodell« ähnliche Effekte wie beim Menschen nachzuweisen oder Daten so auszuwerten, dass man das »richtige« Ergebnis erhält. Auch würde es nicht ausreichen, nur ab und zu eine übereinstimmende Reaktion bei Tier und Mensch zu finden. »Tiermodelle« erfüllen das Kriterium der zuverlässigen Vorhersage schädlicher Wirkungen am Menschen nicht und stellen somit kein brauchbares Testkonzept dar. Die Autoren merken an, dass es unlogisch ist, in »Tiermodellen« Wirkungen am Menschen vorhersagen zu wollen, da schon Menschen untereinander beispielsweise auf Medikamente unterschiedlich reagieren.
Quelle
Titel: Are animal models predictive for humans?
Autoren: Niall Shanks (1) Ray Greek* (2) and Jean Greek (2)
*Korrespondierender Autor
Institute: (1) Wichita State University, Department of History, 1845 N Fairmont, Fiske Hall, Wichita KS 67260, USA; (2) Americans For Medical Advancement, 2251 Refugio Rd Goleta, CA 93117, USA
Zeitschrift: Philosophy, Ethics, and Humanities in Medicine 2009, 4:2. doi: 10.1186/1747-5341-4-2
8. Februar 2010
Eine aktuelle Studie attestiert erneut Schwachpunkte der tierexperimentellen Forschung. Die Ende November 2009 im Fachjournal PLoS ONE veröffentlichte Untersuchung wurde unter Federführung des Britischen Zentrums für Ersatz, Verfeinerung und Reduzierung von Tierversuchen durchgeführt. Sie offenbart eine unsaubere und lückenhafte Methodik bei der Planung und Durchführung von Tierversuchen, sowie bei der Auswertung der Daten und Präsentation der Ergebnisse.
Untersucht wurden öffentlich finanzierte Versuche an Mäusen, Ratten und nicht-menschlichen Primaten, die in britischen oder US-amerikanischen Labors im Rahmen der biomedizinischen Forschung durchgeführt und zwischen Januar 1999 und März 2005 in Fachjournalen veröffentlicht wurden. Insgesamt 271 Veröffentlichungen wurden hinsichtlich der Angaben zu Versuchszweck, Anzahl, Alter, Gewicht und Geschlecht der verwendeten Tiere, sowie Auswahl der Gruppengrößen und statistischer Methoden begutachtet. Es zeigte sich, dass nur bei 59 Prozent der Studien ein Versuchszweck, Eigenschaften der Tiere und Angaben zur Tierzahl zu finden waren. Nur bei 70 Prozent der Veröffentlichungen, bei denen statistische Methoden anwandt wurden, wurde die Wahl der Analyse auch erläutert. Vier Prozent der Tierversuche enthielten gar keine Angaben zur Tierzahl. Von 48 Studien, die zwar im Methodenteil Angaben zur Tierzahl machten, waren diese im Ergebnisteil nicht nachvollziehbar oder widersprachen sogar dem Methodenteil. Wenig plausibel, oder gar nicht erst angegeben, waren in einigen Fällen auch die Auswahl der Gruppengrößen und Kriterien der Gruppenzusammensetzung.
Um eine Verzerrung der Versuchsergebnisse zu vermeiden, sind heute die sogenannte Randomisierung und Verblindung in der Wissenschaft Standard. Bei der Randomisierung werden die Tiere zufällig auf Gruppen aufgeteilt. Verblindung bedeutet, dass der Untersucher nicht weiß, welche Tiere welche Behandlung erhalten haben. Die Studie ergab, dass 87 Prozent der untersuchten Publikationen keine Randomisierung und 86 Prozent keine Verblindung erwähnten. Dies ist ein weiteres Indiz für die mangelhafte Qualität der untersuchten Tierversuchsstudien.
Insgesamt kam die Untersuchung zu dem Schluss, dass eine Reihe von Punkten im Versuchsausbau und in der Datenauswertung- und Darstellung unzureichend nachvollziehbar waren und somit nicht dem Anspruch der Transparenz und Genauigkeit entsprechen.
Quelle
Titel: Survey of the Quality of Experimental Design, Statistical Analysis and Reporting of Research Using Animals
Autoren: Carol Kilkenny (1), Nick Parsons (2), Ed Kadyszewski (3), Michael F. W. Festing (4), Innes C. Cuthill (5), Derek Fry (6), Jane Hutton (7), Douglas G. Altman (8)
Institute: (1) The National Centre for the Replacement, Refinement and Reduction of Animals in Research, London, United Kingdom, (2) Warwick Medical School, University of Warwick, Coventry, United Kingdom, (3) Pfizer Global Research and Development, Groton, Connecticut, United States of America, (4) Animal Procedures Committee, London, United Kingdom, (5) School of Biological Sciences, University of Bristol, Bristol, United Kingdom, (6) Animals Scientific Procedures Inspectorate, Home Office, Shrewsbury, United Kingdom, (7) Department of Statistics, University of Warwick, Coventry, United Kingdom, (8) Centre for Statistics in Medicine, University of Oxford, Oxford, United Kingdom
Zeitschrift: PLoS ONE 2009 4(11): e7824 doi:10.1371/journal.pone.0007824