Halluzinierende KI in der Medizin – Risiko oder Chance?

5.11.2024

Halluzinierende KI in der Medizin? Tipps für die Implementierung von Generativer KI 

In den letzten Jahren hat das KI-Modell „WhisperMD“ von OpenAI in der medizinischen Welt beachtliche Erfolge erzielt. Mittlerweile nutzen über 30.000 Ärzt:innen und mehr als 40 Krankenhäuser dieses Tool, um Patientengespräche zu transkribieren und zu analysieren. Doch es gibt ein ernstes Problem: Whisper „halluziniert“ – es erzeugt teilweise Texte, die nicht auf den tatsächlichen Gesprächen basieren, sondern von der KI erfunden wurden. Die Folge? Die Datenqualität von mehr als 7 Millionen Patientengesprächen ist in Frage gestellt. Doch wie kommt es dazu, und was bedeutet das für den Einsatz solcher Technologien in der Medizin?

Wenn KI sich Dinge ausdenkt – und was das für Patientensicherheit bedeutet

Eine aktuelle Studie der University of Michigan brachte Licht auf ein faszinierendes, aber auch alarmierendes Phänomen: Bei acht von zehn Audiotranskriptionen von Whisper finden sich „halluzinierte“ Inhalte, also Textpassagen, die komplett erfunden sind. Diese KI-generierten Fehler reichen von relativ harmlosen Verzerrungen bis hin zu potenziell gefährlichen Falschinformationen. In einem Beispiel fügte Whisper bei einer Beschreibung von „zwei Mädchen und einer Dame“ plötzlich eine nie ausgesprochene Aussage über deren Hautfarbe hinzu. In einem anderen Beispiel erfand das Modell eine angebliche Medikamentenklasse namens „hyperaktivierte Antibiotika“.

Feature oder Bug? Die kreative Seite der Halluzinationen

Interessanterweise sehen einige KI-Experten die Halluzinationen nicht nur als reinen Fehler, sondern als Nebenprodukt der Kreativität, die moderne Sprachmodelle erst möglich macht. Die Mechanismen, die dafür sorgen, dass KI-Modelle wie ChatGPT oder Whisper nicht nur Wissen wiedergeben, sondern auch assoziativ und interpretativ arbeiten, sind die gleichen, die zu diesen Halluzinationen führen. Doch das birgt ein gewaltiges Risiko – insbesondere im sensiblen medizinischen Bereich. Wo Präzision und Verlässlichkeit höchste Priorität haben, kann es keine Kompromisse geben.

VITAS verfolgt einen anderen Ansatz: Sicherheit und Präzision stehen an erster Stelle

VITAS setzt beim Einsatz von KI auf einen hybriden Ansatz – und ein aktuelles Beispiel zeigt, warum das so wichtig ist: Der Chatbot von Air Canada, der auf empathische Antworten trainiert wurde, versprach Kunden irrtümlich kostenlose Flüge bei vermeintlichen Trauerfällen – Der Fall landete vor Gericht und wurde ein kostspieliges Missverständnis für die Airline.

Bei dem hybriden Modell von VITAS hingegen nutzen wir das semantische Verständnis von Large Language Models (LLMs) gezielt für die Klassifikation von Anfragen. Ein Beispiel: Ruft ein Kunde an und wünscht ein MRT, erkennt VITAS durch LLM sofort, dass es sich um eine Anfrage für die Radiologie handelt. Für die weitere Textgenerierung setzen wir jedoch auf vordefinierte Texte der Kunden, um Stabilität und präzise Konfigurierbarkeit sicherzustellen.

  • Kombination von KI und regelbasierten Prozessen: Statt ausschließlich auf große Sprachmodelle zu setzen, verfolgen wir einen hybriden Ansatz. So verwenden wir KI für die Klassifikation komplexer Anfragen, lassen jedoch Antworten und Prozesse von regelbasierten Systemen steuern. Dadurch reduzieren wir das Risiko von Halluzinationen und stellen sicher, dass kritische Entscheidungen und Aussagen auf sicheren, validierten Daten beruhen.
  • VITAS-Trainingsmodelle unter strenger Kontrolle: Unsere KI-Modelle sind nicht nur speziell trainiert, sondern auch in ihrer Anwendung genau reguliert. Für uns ist es wichtig, dass keine unkontrollierten Inhalte entstehen, die Missverständnisse fördern könnten. Sicherheit und Qualität stehen bei uns immer an erster Stelle.
  • Datenschutz und Verantwortung: In unserer Arbeit steht der Datenschutz an oberster Stelle. Diesen Monat haben wir uns in unserem Webinar „Datenschutz und KI: Sicherer Einsatz von virtuellen Telefonassistenten“ mit Datenschutzanwalt Carsten Ulbricht genau diesen Themen gewidmet – einschließlich der Risiken von KI-Halluzinationen. Unser Ziel ist es, Aufklärung und Transparenz zu schaffen, sowohl für unsere Kund:innen
    als auch für die gesamte Branche.

Jetzt zum Webinar anmelden!

Warum konservative Innovation die Zukunft der Medizin ist

In einer zunehmend digitalisierten Welt scheint es verlockend, auf die neuesten und „kreativsten“ KI-Lösungen zu setzen. Doch die aktuellen Entwicklungen um Whisper zeigen deutlich, dass nicht alles, was technisch möglich ist, auch im medizinischen Umfeld bedenkenlos angewendet werden sollte. VITAS setzt auf konservative Innovation – Fortschritt mit Bedacht und Respekt vor den strengen Anforderungen der medizinischen und öffentlichen Sektoren.

30 Tage kostenlos testen

Einen Monat lang von den Vorteilen des Telefonassistenten profitieren. Automatische Kündigung. Keine Kreditkarte notwendig.
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

Bereit Loszulegen?

30 Tage kostenlos und völlig unverbindlich testen
Automatische Kündigung - Keine Abofalle
Keine Zahlungsdaten notwendig
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Sie haben noch offene Fragen zu Ihrem Anwendungsfall? Dann buchen Sie sich kostenfrei einen Beratungstermin bei unseren Experten.
Individuelle Beratung, ohne Kosten
Gemeinsam die ersten Schritte zum eigenen Assistenten gehen