Neben sprachlichen Eingabeaufforderungen können große Sprachmodelle auch Herzfrequenzdaten verstehen, interpretieren und ihre Reaktionen darauf anpassen. Dr. Morris Gellisch, ehemals Ruhr-Universität Bochum, heute Universität Zürich, und Boris Burr von der Ruhr-Universität Bochum haben dies in einem Experiment nachgewiesen. Sie entwickelten eine technische Schnittstelle, über die die physiologischen Daten in Echtzeit an das Sprachmodell übermittelt werden können. Die KI kann dabei auch subtile physiologische Signale wie Veränderungen der Herzaktivität berücksichtigen. Dies eröffnet neue Möglichkeiten für den Einsatz in Medizin und Pflege. Die Arbeit wurde am 26. September 2025 im Fachmagazin „Frontiers in Digital Health“ veröffentlicht .
Tabelle und Visualisierung der Daten – kein Problem
Für ihr Experiment nutzten die beiden Forscher ein gängiges Gerät, das die Herzfrequenzvariabilität über einen Brustgurt misst. Die daraus gewonnenen Daten wurden dekodiert, gefiltert und verdichtet. Die verarbeiteten Herzdaten wurden in Echtzeit in das große Sprachmodell GPT-4 eingespeist. Auf eine entsprechende Eingabeaufforderung konnte die KI die übermittelten Herzdaten in einer Tabelle mit Durchschnittswerten, Minimum, Maximum und weiteren Informationen korrekt darstellen. „Auswertung und Visualisierung erfolgen direkt in der LLM-Umgebung, ohne externe Statistik- oder Plot-Software“, so Burr. Auf Wunsch visualisierte die KI die gemessenen Herzdaten auch.
„Wir haben unser System zudem in verschiedenen Echtzeit-Interaktionsszenarien getestet, darunter ein Experiment zu kognitivem Stress, bei dem das Sprachmodell seine Ausgabe anhand der Herzfrequenzreaktionen an geringe und hohe Anforderungen anpasste“, berichtet Gellisch. Das System konnte Unterschiede in den Herzfrequenzmustern zwischen Aufgaben mit geringer und hoher kognitiver Anforderung erkennen und in der KI-Ausgabe darauf reagieren. „Bei unserem Experiment handelt es sich nicht um eine validierte psychophysiologische Studie, sondern um ein Proof-of-Concept-Szenario“, betont Gellisch. Ziel war es zu zeigen, dass das Sprachmodell in Echtzeit auf physiologische Parameter reagieren kann, wenn diese über die entwickelte Schnittstelle eingegeben werden.Mehrwert für verschiedene Aufgaben
„Die Integration physiologischer Signale in die KI bietet einen klaren Mehrwert“, so die beiden Autoren. Sprachmodelle können so Texteingaben sowie Echtzeitindikatoren des autonomen Zustands berücksichtigen, was zu adaptiveren und kontextsensitiveren Interaktionen beim Lernen, Entscheiden und im Gesundheitswesen führen könnte. „Die Schnittstelle ist nicht nur für Bildungs- und Forschungsszenarien interessant, sondern auch für medizinische und gesundheitsbezogene Anwendungen, beispielsweise um Stress, Erschöpfung oder emotionale Dysregulation in Echtzeit zu erkennen“, sagt Gellisch.
Das Projekt wurde unter Mitwirkung von Prof. Thorsten Schäfer, Studiendekan der Medizinischen Fakultät, und Prof. Eckart Förster, Leiter des Lehrstuhls für Neuroanatomie und Molekulare Hirnforschung der Ruhr-Universität Bochum, entwickelt.
Frontiers in Digital Health, 2025, DOI: 10.3389/fdgth.2025.1670464,
