COMPASS MAGAZINE #10
COMPASS MAGAZINE #10

DIE WISSENSCHAFTLICHE METHODE Neue Technologie verändert das Vorgehen in der Forschung

Die wissenschaftliche Forschung erzielt nicht mehr so viele Durchbrüche wie früher einmal. Aber von rechnergestützten Simulationen bis hin zur Durchforstung riesiger Datenmengen bieten neue Technologien das Potenzial, auf ganz andere Weise als bisher Entdeckungen zu machen.

In vielerlei Hinsicht ist die heutige Zeit eine der schlechtesten für die weltweite Wissenschaft – doch sie könnte zur Geburtsstunde der besten aller Zeiten werden.

Was sind die Gründe für diese Zwiespältigkeit? Einerseits sind die Forscher in der Pharmazie, Biotechnologie, Werkstoffkunde und anderen Wissenschaftsfeldern frustriert darüber, dass zig Milliarden Dollar für Forschung und Entwicklung nur so wenige Ergebnisse liefern. Doch für jede Herausforderung bietet die Verschmelzung von Technologie und wissenschaftlicher Innovation spannende Möglichkeiten.

EINE NEUE WELTORDNUNG

Ein großes Pharmaunternehmen benötigt laut IDC Health Insights aus Framingham, Massachusetts (USA), acht bis zwölf Jahre sowie 1,2 bis 1,8 Milliarden US-Dollar, um ein neues Produkt auf den Markt zu bringen. Die Forscher kämpfen auch gegen noch viel schwierigere Krankheiten, wie Alzheimer und solche Erkrankungen, die nur relativ wenige Menschen betreffen, einschließlich Multipler Sklerose (MS) und der sogenannten Lou-Gehrig-Krankheit (ALS).

Die Komplexität, der die Wissenschaftler gegenüberstehen, und die Explosion der Datenmengen droht sie schier zu erdrücken, und dabei müssen nicht nur die Biowissen­schaften eine solche Datenflut bewältigen. Auch in der Materialforschung kämpft man mit der Komplexität, da Wissen­schaftler die Werkstoffe mittlerweile auch im Nano­- oder im subatomaren Bereich untersuchen.

„Wir stehen vor vielen ähnlichen Problemen wie unsere Kollegen in der Pharmabranche“, sagt John Mauro, Leiter der Glasforschungsgruppe bei Corning Incorporated in Corning, New York (USA).

Doch obwohl die Technologie zu der steigenden Komplexität beiträgt, bietet sie auch Werkzeuge, um diese zu be­wältigen. Während die Datenmengen weiter wachsen, ermöglichen Analysetools den Wissenschaftlern auch tiefere Einblicke. Mit zunehmender Genauigkeit können Forscher modellieren, simulieren und vorhersagen, welchen Einfluss einzelne Moleküle auf mensch­liches Gewebe haben oder wie sich Karbon­graphit in einem Düsenflugzeug verhält, wenn es großen Druck­- und Temperatur­schwankungen ausgesetzt ist.

„Die größte Wende brachte der Einsatz von Hochleistungsrechnern“, sagt Sanjay Mehta, Leiter der rechnergestützten Modellierung bei Air Products, einem Hersteller für Industriegase und Hochleistungswerkstoffe aus Allentown, Pennsylvania (USA). „Es geht vor allem um die Möglichkeit, Tausende oder sogar Millionen von Szenarien zu simulieren. Man kann nicht ins Labor gehen und jedes einzelne Experiment durchführen. Das ist einfach unmöglich.“

Die Fähigkeit, Materialien nach Bedarf zu entwickeln, ist revolutionär. Bei Corning wurden beispielsweise mittels datenbasierter Modellierung die wichtigsten Eigenschaften von Glas vorherbestimmt und die dritte Generation des patentierten Gorilla Glass entwickelt, das in vielen Handys und mobilen Geräten verwendet wird und Energie absorbiert, statt zu brechen. 

EIN WANDEL DES FORSCHUNGS­ANSATZES

In den Biowissenschaften schreitet die Kommerzialisierung traditionell langsamer voran, weil es dort schwierig ist, die Tätigkeiten für die Wirkstoffentdeckung mit denen der Medikamentenentwicklung, Herstellung, klinischen Studien, Labortests und letztendlich der behördlichen Zulassung zu ver­knüpfen.

„Für jede Branche, ob sie Konsumprodukte, Medikamente oder medizinische Geräte herstellt, ist der möglichst reibungslose Weg eines Produkts vom Labor zum Kunden bzw. Patienten ein zentrales Thema“, sagt Paul McKenzie, Senior Vice President für Fertigung und technischen Betrieb bei Janssen Pharmaceuticals, Teil des in New Jersey (USA) ansässigen Konzerns Johnson & Johnson (J&J).

Seit Jahrzehnten wurde die wissenschaftliche Gemeinschaft – insbesondere in den Biowissenschaften – vereinfacht aus­gedrückt als Einzelperson oder kleine Arbeitsgruppen charakterisiert, die sich isoliert in einem Bunker abrackern. Erfolge werden geteilt, aber Fehler werden verschwiegen, was andere dazu verdammt, diese zu wiederholen. Wenn eine Gruppe Wissenschaftler einen nützlichen Stoff identifiziert hat, werden diese Informationen an das Entwicklungsteam weitergegeben, das wiederum die Daten der Fertigung „über den Zaun wirft“. Dieses Vorgehen führt zur Wiederholung bestimmter Tätigkeiten und zum Verlust von geistigem Eigentum, während jede Gruppe aufs Neue versucht, die Arbeit der vorigen Gruppe zu verstehen.

„Dieses Modell funktioniert nicht“, behauptet Bernard Munos, der 30 Jahre bei Eli Lilly in Indianapolis, Indiana (USA), gearbeitet hat und nun Senior Fellow bei FasterCures ist, einem Zentrum des Milken Institute in Santa Monica, Kalifornien.

Bei dem neuen, verbesserten Modell geben die Wissenschaftler all ihre Ergebnisse – Erfolge und Fehlschläge zugleich – in elektronische Laborjournale (ELN) ein. Diese Daten können zentral gespeichert werden und dienen Forschern bei anderen Projekten oder den Kollegen aus der Entwicklungs-­ und Fertigungsabteilung als Richtwerte. 

„WIR BEWEGEN UNS AUF EIN VIRTUELL INTEGRIERTES NETZWERK ZU.“

PAUL MCKENZIE SENIOR VICE PRESIDENT FÜR FERTIGUNG UND TECHNISCHEN BETRIEB, JANSSEN PHARMACEUTICALS

DIE BUNKERMAUERN SCHWINDEN 

„Pharmaunternehmen waren früher sehr vertikal integriert“, sagt Andrew Brosnan, Analyst für die Pharmabranche beim britischen Forschungsinstitut Ovum. „Wir erleben gerade, wie sich dies auflöst“, indem Wissenschaftler und Entwickler nun während der Forschung zusammenarbeiten.

„In der Realität bewegen wir uns auf ein virtuell integriertes Netzwerk zu“, sagt McKenzie von Janssen mit Sitz in Horsham, Pennsylvania (USA). „Es wäre möglich, dass wir an einem Medikament die Schritte A, B und C intern, aber D, E und F extern bearbeiten lassen.“

Die Bemühungen des Council for Scientific and Industrial Research (CSIR) in Indien, das erneute Auftreten tödlicher, arzneimittelresistenter Formen von Tuberkulose (TB) zu bekämpfen, könnte zum neuen Vorbild für das Vorgehen in der Forschung werden. CSIR hat ein Open-Source-Modell für F&E eingeführt und die Wissenschaftler weltweit gebeten, ihr Fachwissen einzubringen. Am Ende haben sich 830 Forscher freiwillig beteiligt und dadurch in nur vier Monaten enorme Fortschritte erzielt.

„Wenn man 830 Menschen an eine solche Aufgabe setzt, kann man Erfolg haben und das sogar ziemlich schnell“, sagt Munos. „Darin stecken 300 Jahre an Arbeit. Kein Forscher würde sich allen Ernstes einem solchen lebenslangen Projekt verschreiben, weil er es nie zum Abschluss bringen und die Anerkennung dafür erhalten könnte.“ 

AUF EINEN STANDARD EINIGEN 

Das TB-Projekt kam gut an, weil es die Lösung für einen humanitären Notfall lieferte. Aber in der Wirtschaftswelt ist es viel schwieriger, Systeme zu entwickeln, die eine weitreichendere Zusammenarbeit außerhalb eines Unternehmens ermöglichen. Wem welcher Teil des geistigen Eigentums gehört, ist dabei ein entscheidender Punkt. Und darum wächst der Bedarf an gemeinsamen Standards und Protokollen, die eine Zusammenarbeit erleichtern.

„Wir alle definieren Daten unterschiedlich“, sagt Gerhard Noelken, Senior Director für Technologie und Innovation bei Pfizer in Großbritannien. „Es gibt kein einziges Lexikon, das erklärt, wie analytische Ergebnisse zu beschreiben oder zu definieren sind. Könnte man sich auf eine präzise Definition einigen, wäre der Daten­- und Informationsaustausch zwischen Unternehmen und Partnern viel leichter.“

Große Endnutzer wie J&J versuchen Technologieanbieter zu überzeugen, ihre IT-Produkte plattformunabhängig zu machen. Wenn die Anbieter das nicht können, oder wollen, besteht das Risiko, dass die Branche einen neuen Turmbau zu Babel beginnt und noch mehr ungenutzte „Dark Data“ erzeugt, die außerhalb eines einzelnen Unternehmensbereichs nicht mehr zugänglich sind. 

VOM LABOR ZUM REGAL 

Die neue Vision der Forschung beginnt im Labor. Für viele Unternehmen war die Einführung der ELNs frustrierend, weil einige Wissenschaftler der An­sicht waren, dadurch würden ihre Ideen offengelegt, bevor sie reif für eine Beurteilung sind. Zunächst waren auch die Software und die unter­stützenden Datenbanken noch nicht robust genug. „Die meisten anfäng­lichen Bemühungen brachten nicht die Vorteile, die man sich von ihnen erhofft hatte“, sagt Alan S. Louie, Forschungsdirektor von IDC Health Insights.

Doch die Verbesserung der rohen Rechenleistung hat geholfen. Robert Wade, ein Forschungsstipendiat von Pfizer in Groton, Connecticut (USA), erzählt, dass drei Abteilungen innerhalb des pharmazeutischen Wissenschaftsbereichs, dem für die Entwicklung bis zur Marktreife zuständigen Unternehmenszweig, mit einem elektronischen Laborjournal vernetzt wurden. Das Unternehmen schätzte die jährlichen Einsparungen auf 2 Millionen US-Dollar, als das System von nur 230 Menschen genutzt wurde. Heute hat das ELN 900 Nutzer.

„Sobald die Daten verfügbar waren und problemlos mit anderen geteilt werden konnten, lösten sich die Bedenken über das System in Luft auf“, sagt Wade. „Jeder verlangte Zugriff auf die Daten anderer Forscher, die an ähnlichen Projekten arbeiteten.“

Wie Pfizer erkennt die gesamte Life-Science-Branche die Chancen, die die Erweiterung dieses und anderer IT-Systeme auf alle Beteiligten bieten. McKenzie von Janssen kann sich beispiels­weise gut vorstellen, IT-Systeme zu nutzen, um der US Food and Drug Administration (FDA) und deren Pendants in anderen Ländern zu zeigen, dass die Produkte den behördlichen Erwartungen entsprechen und aus den Stoffen bestehen, die in den klinischen Studien verwendet wurden. Derzeit erfolgt dies alles weitgehend papierbasiert, wodurch es zeitaufwendig und arbeitsintensiv ist.

„Wir sollten in der Lage sein, das auf Knopfdruck zu erledigen, anstatt dass sich Menschen durch Unmengen von Papier und Überprüfungen und Unterlagen kämpfen müssen“, sagt McKenzie. „Ich sehe hier eine große Effizienzsteigerung.“

PERSONALISIERTE MEDIZIN 

Die Technologie entwickelt sich rasant weiter, bis irgendwann in absehbarer Zukunft Krebspatienten ihr Genom entschlüsselt und ihre spezielle Krebsart analysiert bekommen, um zu ermitteln, welches Präparat, welche Kombination von Präparaten oder welche DNA-Sequenz zum besten Ergebnis mit den geringsten Neben­wirkungen führen wird.

Auf dem Gebiet der Materialforschung sehen die Wissenschaftler das Potenzial, die Herstellung nahezu aller Produkte zu verbessern.

Trotz aller Herausforderungen spornen die Aussichten auf enorme Fortschritte die weltweite wissenschaftliche Gemeinschaft an, ihren nächsten großen Sprung in die vielleicht beste aller Zeiten zu wagen. 

William J. Holstein ist Wirtschafts­journalist und ­-autor und lebt in New York. Sein neuestes Buch heißt „The Next American Economy: Blueprint For a Real Recovery”. Mehr über seine Arbeit erfahren Sie auf williamjholstein.com. 

von William J. Holstein Zurück zum Seitenbeginn