Druckartikel: Studie der Universität Erlangen zeigt: Vorsicht bei Infos von Chatbots zu Medikamenten

Studie der Universität Erlangen zeigt: Vorsicht bei Infos von Chatbots zu Medikamenten


Autor: Nadine Wüste, Agentur dpa

Erlangen, Sonntag, 13. Oktober 2024

Chatbots und KI-Suchmaschinen liefern laut Studie der Universität Erlangen unzuverlässige Medikamenteninformationen. Die Forscher fordern Warnhinweise für Nutzer.
Laut einer Studie der Uni Erlangen geben Chatbots keine zuverlässigen Antworten bei Informationen zu Medikamenten.


KI-unterstützte Suchmaschinen und Chatbots bieten laut einer Studie keine verlässlichen Informationen zu Medikamenten an. Die gelieferten Antworten seien oft ungenau, unvollständig und teilweise schwer verständlich gewesen, berichten die Wissenschaftler im Fachjournal "BMJ Quality & Safety". Sie warnen daher zur Vorsicht und plädieren für deutliche Warnhinweise für Nutzerinnen und Nutzer.

"Ein zentrales Ergebnis unserer Untersuchung ist, dass die Qualität der Chatbot-Antworten bislang nicht zur sicheren Anwendung für Nutzer ausreichend ist", erläuterte Erstautor Wahram Andrikyan vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen. "Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unserer Meinung nach daher unerlässlich."

Chatbots bei Medikamenten: Laien erkennen Ungenauigkeiten nicht

Den Ausgangspunkt der Studie bildete die Beobachtung, dass sich Patientinnen und Patienten online über verschriebene Medikamente informieren. Deshalb konfrontierten die Forschenden den KI-gestützten Chatbot der Microsoft-Suchmaschine Bing im April 2023 mit zehn häufigen Fragen zu den 50 meistverordneten Medikamenten in den USA, darunter Fragen zur Einnahme, zu Nebenwirkungen oder Gegenanzeigen.

Generell habe der Chatbot die Fragen mit hoher Vollständigkeit und Genauigkeit beantwortet, sagte Andrikyan. Doch bei bestimmten Fragen sei dies nicht der Fall gewesen. "Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können", sagte Andrikyan.

Zwar habe es seit der Untersuchung im vergangenen Jahr signifikante Fortschritte bei KI-gestützten Suchmaschinen mit integrierter Chatbot-Funktion gegeben, betonte der Experte. Die Verbesserungen seien jedoch nicht ausreichend, die Risiken für die Patientensicherheit bestehen nach wie vor. Da Chatbots allerdings mit unterschiedlichen Datensätzen trainiert werden, hält er es für ratsam, die Sicherheit und Qualität anderer technischer Systeme ebenfalls zu evaluieren.

Wie wir künstliche Intelligenz einsetzen