Data - KI Healthcare Branchenübergreifend

Beschleunigung der F&E-Pipeline in der Pharmaindustrie mithilfe von LLMs und generativer KI: Chancen und Herausforderungen

Veröffentlicht am 09 Mai 2025 Lesen 25 min

Die Gesundheitsbranche ist führend bei der Einführung von generativer KI (GenAI) und großen Sprachmodellen (LLMs). Diese neuen Technologien werden genutzt, um verschiedenste Prozesse – von der Wirkstoffentwicklung bis zur Patientenversorgung – grundlegend zu verändern und könnten Forschungs- und Entwicklungsprozesse (F&E) erheblich beschleunigen. Doch während Unternehmen mit Hochdruck an der Integration dieser Tools arbeiten, müssen sie sich auch mit möglichen Fallstricken auseinandersetzen. Eine zu starke Abhängigkeit von LLMs und GenAI, ohne die zugrunde liegenden Herausforderungen anzugehen, kann zu erheblichen Rückschlägen führen. In diesem Artikel beleuchten wir von Alcimed die Chancen und Risiken, die mit der Integration dieser neuen Technologien in Ihre F&E-Pipeline verbunden sind.

5 Chancen, die LLMs und generative KI in der pharmazeutischen F&E bieten

Chance Nr. 1: eine effiziente Wirkstoffforschung fördern

Wie aktuelle Partnerschaften zeigen (z. B. Isomorphic Labs mit Novartis und Eli Lilly1Isomorphic labs. (s. d.). https://www.isomorphiclabs.com/articles/isomorphic-labs-kicks-off-2024-with-two-pharmaceutical-collaborations), haben Protein Language Models (PLMs) und generative KI das Potenzial, die Wirkstoffforschung grundlegend zu verändern. Herkömmliche Methoden benötigen viel Zeit und enorme Ressourcen. KI-gestützte Modelle hingegen können Millionen chemischer Verbindungen analysieren, Wechselwirkungen vorhersagen und sogar neue molekulare Strukturen vorschlagen. Die so erzielte Effizienz kann die Entwicklungsdauer um Jahre verkürzen.

Chance Nr. 2: Potenziale im LIMS entdecken

Laborinformations- und Managementsysteme (LIMS) sind seit Langem das Rückgrat der Datenverwaltung in der Forschung. Die Integration von KI-Modellen der nächsten Generation wie LLMs (Large Language Models) und VLMs (Vision Language Models) kann verborgene Erkenntnisse in Ihrem LIMS aufdecken und Teams dabei helfen, wertvolle Forschungsressourcen schneller zu identifizieren. Diese Integration erleichtert zudem die Entscheidungsfindung bei der Auswahl von Forschungsobjekten2Leveraging Generative AI in Laboratory Businesses : Integration with LIMS and Customer Portals | Sednor. (s. d.). https://www.sednor.io/articles/leveraging-generative-ai-in-laboratory-businesses-integration-with-lims-and-customer-portals.

Chance Nr. 3: Patienten und Studienzentren schneller rekrutieren

Die Rekrutierung geeigneter Patienten und Zentren für klinische Studien zählt zu den größten Herausforderungen der klinischen Forschung. LLMs können Patientenakten durchforsten, geeignete Kandidaten identifizieren und Studienzentren auf Basis historischer Daten und der demografischen Merkmale der Patienten vorschlagen. Durch die beschleunigte Rekrutierung können Verzögerungen in klinischen Studien verringert und neue Therapien auf den Markt gebracht werden.


Erfahren Sie, wie unser Team Sie bei Ihren digitalen klinische Studien begleiten kann >


Chance Nr. 4: In-Silico-Medizin und digitale Zwillinge integrieren

Die Entwicklung der In-Silico-Medizin und der Einsatz digitaler Zwillinge – virtueller Replikate von Patienten – bieten eine weitere spannende Chance. Digitale Zwillinge ermöglichen die Simulation von Behandlungen in einer kontrollierten, virtuellen Umgebung und erlauben so die Testung von Wirkstoffen, bevor sie am Menschen angewendet werden.

Chance Nr. 5: langfristige Effekte bewerten

Die Überwachung nach der Marktzulassung ist entscheidend, um langfristige Wirkungen eines Medikaments zu verstehen. LLMs und multimodale Modelle können hierbei helfen, indem sie Patientendaten kontinuierlich analysieren, Nebenwirkungen erkennen und langfristige Ergebnisse vorhersagen. Diese Echtzeitanalyse ermöglicht es Unternehmen, schneller auf mögliche Probleme zu reagieren und frühzeitig mit der medizinischen Fachwelt zusammenzuarbeiten, um Behandlungsprotokolle anzupassen.

Welche Herausforderungen bringt der Einsatz von LLMs und generativer KI in der pharmazeutischen F&E mit sich?

Bias, Halluzinationen und fehlende Erklärbarkeit

Eine der größten Herausforderungen beim Einsatz von LLMs und GenAI in der Forschung ist das Risiko von Verzerrungen (Bias) und Halluzinationen – also der Generierung falscher oder irreführender Informationen. Gesundheitsdaten sind oft unvollständig oder einseitig, und ohne sorgfältiges Feintuning können KI-Modelle diese Verzerrungen verstärken. Fehlerhafte Modelle führen möglicherweise zu falschen Schlussfolgerungen, was Patienten gefährden und rechtliche Konsequenzen für Unternehmen nach sich ziehen kann.

Einige KI-Experten schlagen vor, synthetische Daten – also künstlich generierte Datensätze, die reale Daten nachahmen – als Ergänzung zu verwenden. Allerdings besteht die Gefahr, dass auf solchen Daten trainierte Modelle bestehende Verzerrungen verstärken, da synthetische Daten auf fehlerhaften Originalmodellen basieren können.

Hinzu kommt die Komplexität vieler KI-Systeme, oft als „Black-Box-Algorithmen“ bezeichnet, die es für medizinisches Fachpersonal schwierig machen, KI-basierte Entscheidungen nachvollziehbar zu erklären. Ohne transparente Nachvollziehbarkeit wird es schwierig, Vertrauen bei Forschern, Regulierungsbehörden und Patienten aufzubauen.

Geistiges Eigentum und Nachvollziehbarkeit (Chain of Custody)

Der Einsatz von GenAI wirft Fragen zur Verwaltung geistigen Eigentums (engl.: IP oder intellectual property) und zur lückenlosen Dokumentation von Datenflüssen auf. Bei KI-generierten Erkenntnissen ist häufig unklar, wem das Ergebnis gehört – dem Unternehmen, dem KI-Anbieter oder den Entwicklern des Modells. Zudem ist es entscheidend, den Ursprung und die Veränderungen von Daten durch KI-Prozesse nachvollziehen zu können, um rechtlichen und regulatorischen Anforderungen gerecht zu werden. Ein Versäumnis in diesem Bereich kann zu Streitigkeiten rund um das geistige Eigentum und zur Infragestellung der Integrität von Forschungsergebnissen führen.

Datenschutz und Sicherheitsrisiken

Gesundheitsdaten zählen zu den sensibelsten und am strengsten regulierten Daten überhaupt. Die Integration von GenAI in F&E-Prozesse erhöht das Risiko von Datenschutzverletzungen und unautorisierten Zugriffen. KI-Systeme verarbeiten riesige Mengen an Patientendaten – deren sichere Speicherung und Übertragung ist daher essenziell. Jede Sicherheitslücke kann gravierende Datenschutzverletzungen, hohe Geldstrafen und Vertrauensverluste zur Folge haben. Eine mögliche Lösung: dezentrale Datenverarbeitungssysteme.

Ethische und vertrauensbezogene Fragen: Patientenaufklärung und Einwilligung

Die Einwilligung der Patienten zur Nutzung ihrer Daten in KI-gestützten Analysen ist bislang rechtlich und ethisch nicht eindeutig geregelt. Die Intransparenz vieler KI-Systeme sowie der Einsatz von Drittanbietern erschweren den Prozess der informierten Zustimmung. Zudem sind die eingesetzten Daten – etwa elektronische Gesundheitsakten oder genetische Informationen – äußerst sensibel. Patienten könnten das Ausmaß der Nutzung und die Eigentumsrechte an diesen Daten nicht vollständig verstehen oder akzeptieren.

Eine Lösung könnte die Entwicklung robuster Einwilligungsmechanismen sein, die sicherstellen, dass Patienten umfassend darüber informiert werden, wie KI-Technologien ihre Gesundheitsversorgung beeinflussen. Ebenso wichtig ist es, medizinisches Personal entsprechend zu schulen und Verfahren einzuführen, um Datenschutz und Datensicherheit dauerhaft zu gewährleisten.

Regulatorische Anforderungen

Die regulatorischen Anforderungen im Gesundheitswesen verlangen, dass KI-Modelle in der F&E höchste Standards bei Patientensicherheit und Datenintegrität einhalten. Unternehmen, die KI-Lösungen vorschnell einführen, riskieren Verzögerungen, Bußgelder oder Rücknahmen von Produkten. Um regulatorische Hürden zu umgehen, vermarkten viele Unternehmen KI-Systeme als „Assistenztools“ und nicht als medizinische Geräte. Dies ermöglicht eine schnellere Markteinführung unter geringeren Auflagen.

Mit wachsender Bedeutung von KI in klinischen Entscheidungen erhöhen die Behörden jedoch ihre Anforderungen. Die FDA und die EMA arbeiten derzeit an neuen Rahmenwerken, um Innovation und Sicherheit in Einklang zu bringen – darunter der EU AI Act und das FDA-Framework „Software as a Medical Device (SaMD)“.

Die rasche Einführung von LLMs und generativer KI in der pharmazeutischen F&E bietet enorme Chancen – von Effizienzsteigerungen bis hin zu völlig neuen Erkenntnissen in der Forschung. Gleichzeitig gibt es Risiken wie Verzerrungen, Sicherheitslücken und regulatorische Herausforderungen. Der erfolgreiche Einsatz dieser Technologien erfordert daher eine fundierte Expertise sowohl im Bereich KI als auch in der Gesundheitsbranche und eine durchdachte Umsetzungsstrategie.

Nautilus.ai, das Data & KI Team von Alcimed, begleitet Sie gerne dabei, diese Herausforderungen zu meistern und sicherzustellen, dass Ihre KI-gestützte F&E-Pipeline ihr volles Potenzial entfaltet. Wenn Sie ein Projekt besprechen möchten, zögern Sie nicht, unser Team zu kontaktieren!


Über den Autor, 

Matthieu, Leiter von Nautilus.ai, Alcimeds Data & KI Team in den USA

Sie haben ein Projekt?

    Erzählen Sie uns von Ihrem unerforschten Gebiet

    Sie haben ein Projekt und möchten es mit unseren Entdeckern besprechen? Schreiben Sie uns!

    Ein Mitglied unseres Teams wird sich in Kürze mit Ihnen in Verbindung setzen.


    Weiterführende Informationen