Zum Inhalt springen
Home » ESMO veröffentlicht erste Leitlinien für den sicheren Einsatz großer Sprachmodelle in der Onkologie

ESMO veröffentlicht erste Leitlinien für den sicheren Einsatz großer Sprachmodelle in der Onkologie

Die Europäische Gesellschaft für Medizinische Onkologie (ESMO) hat am Montag die ersten umfassenden Empfehlungen zur Integration großer Sprachmodelle (Large Language Models, LLMs) in die onkologische Praxis vorgestellt. Die Leitlinien mit dem Titel ELCAP (ESMO Guidelines for the Use of Large Language Models in Clinical Practice) wurden in der Fachzeitschrift Annals of Oncology publiziert und sollen Klinikern, Patienten und Institutionen einen strukturierten Rahmen bieten, um Chancen der KI zu nutzen, ohne Risiken für Sicherheit, Datenschutz und klinische Qualität zu vernachlässigen. Die Veröffentlichung fällt zeitlich mit einer Diskussionsrunde zum Thema KI-gestützte Krebsbehandlung auf dem laufenden ESMO-Kongress in Berlin zusammen.

Die Leitlinien gliedern sich in drei Hauptkategorien, die je nach Anwendergruppe unterschiedliche Anforderungen stellen. Patientenorientierte Anwendungen wie Chatbots zur Aufklärung oder Symptomüberwachung sollen ausschließlich ergänzend zur regulären Versorgung eingesetzt werden, unter strenger Aufsicht, mit klaren Eskalationspfaden zu Fachpersonal und robusten Datenschutzmaßnahmen. Für medizinisches Personal entwickelte Tools – etwa zur Entscheidungsunterstützung, Dokumentation oder Sprachübersetzung – erfordern eine formale Validierung, transparente Darlegung von Grenzen und die uneingeschränkte Verantwortung des Menschen für alle klinischen Entscheidungen.

Institutionelle Systeme, die in elektronische Patientenakten integriert sind und Aufgaben wie Datenextraktion, automatisierte Zusammenfassungen oder den Abgleich mit klinischen Studien übernehmen, unterliegen den strengsten Vorgaben: Vor der Einführung sind umfangreiche Tests notwendig, gefolgt von kontinuierlicher Überwachung auf Verzerrungen und Leistungsabweichungen. Änderungen an Prozessen oder Datenquellen machen eine erneute Validierung erforderlich. Kliniker müssen zudem informiert sein, wenn solche Systeme in ihrer Einrichtung laufen, da Interoperabilität und Datensicherheit entscheidend für die Zuverlässigkeit sind.

Ein zentraler Punkt der Leitlinien ist die Abhängigkeit der Modellleistung von der Qualität der Eingabedaten: Unvollständige Patientenakten oder vage Anfragen können zu fehlerhaften Ergebnissen führen, weshalb ständige menschliche Kontrolle und klare Eskalationsmechanismen vorgeschrieben sind. ELCAP betont ausdrücklich, dass LLMs lediglich unterstützend wirken und klinische Arbeitsabläufe verbessern, nicht aber ersetzen sollen. Die Leitlinien berücksichtigen auch die rasante Entwicklung autonomer KI-Systeme, die eigenständig handeln könnten, und fordern für derartige Technologien künftig separate regulatorische und ethische Rahmenbedingungen.

Entwickelt wurden die Empfehlungen zwischen November 2024 und Februar 2025 von einem internationalen Expertengremium mit 20 Mitgliedern aus Onkologie, Künstlicher Intelligenz, Biostatistik, digitaler Gesundheit, Ethik und Patientenvertretung. Die ESMO unterstreicht, dass gemeinsame Standards ebenso wichtig wie die Algorithmen selbst seien, um Vertrauen in KI-gestützte Krebsbehandlungen zu schaffen und Qualität, Gerechtigkeit sowie Effizienz zu steigern, ohne die klinische Urteilsfähigkeit zu beeinträchtigen.

Die Leitlinien richten sich primär an unterstützende Systeme unter menschlicher Aufsicht und sollen onkologiespezifische Lösungen bieten, die Innovation mit praktikabler Umsetzung und patientenorientiertem Nutzen verbinden. Sie markieren einen Meilenstein in der Debatte um den verantwortungsvollen Einsatz von KI in der Medizin und könnten Vorbild für weitere Fachgesellschaften werden.