In einem Artikel in der Zeitschrift JAMA Pediatrics wurde festgestellt, dass der generative KI-Chatbot ChatGPT von OpenAI, den einige Gesundheitsorganisationen für begrenzte Anwendungsfälle getestet haben, bei der Diagnose pädiatrischer Krankheiten in 83 % der Fälle Fehler macht . Und beim Testen von OpenAIs GPT-4 als Diagnoseassistent stellten Ärzte am Beth Israel Deaconess Medical Center in Boston fest, dass das Modell in fast zwei von drei Fällen die falsche Diagnose als wichtigste Antwort einstufte.
Die heutige generative KI hat auch mit medizinischen Verwaltungsaufgaben zu kämpfen, die fester Bestandteil der täglichen Arbeitsabläufe von Ärzten sind. Beim MedAlign-Benchmark zur Bewertung, wie gut generative KI Dinge wie das Zusammenfassen von Patientenakten und das Durchsuchen von Notizen leisten kann, scheiterte GPT-4 in 35 % der Fälle .
OpenAI und viele andere Anbieter generativer KI warnen davor, sich bei medizinischer Beratung auf ihre Modelle zu verlassen .
https://jamanetwork.com/journals/jamapediatrics/fullarticle/2813283
