KI im Gesundheitswesen

Weil KI wie das Internet denkt – und nicht wie ein Experte

25. Juni 2025, 10:23 Uhr | Jörg Schröper
„Bei Corti sagen wir es seit Beginn ganz klar: Allgemeine KI, die auf dem offenen Internet trainiert wurde, ist für klinische Entscheidungsfindung grundlegend ungeeignet", so Florian Schwiecker.
© Corti

Florian Schwiecker vom europäischen KI-Anbieter Corti, der sich auf den Healthcare-Bereich spezialisiert hat, warnt vor zu viel Vertrauen in LLMs und allgemeine Modelle.

Vor wenigen Tagen haben Forscher des KI-Unternehmens Anthropic, von dem die KI-Modelle der Claude-Reihe stammen, neben der eigenen Technik noch 15 weitere beliebte KI-Lösungen von Anbietern wie OpenAI, Google, Meta und xAI untersucht. Das Ergebnis: Fehlerhafte und sogar potenziell gefährliche Antworten sind keine Seltenheit.

Warum nicht zuletzt diese Untersuchung ein weiterer Beleg dafür ist, dass große Sprachmodelle (LLMs) und allgemeine KI-Modelle vor allem für den Einsatz im Gesundheitswesen ungeeignet sind, unterstreicht Florian Schwiecker vom europäischen KI-Anbieter Corti, der sich auf den Healthcare-Bereich spezialisiert hat: „Die neueste Studie von Anthropic ist eine ernüchternde Erinnerung: Allgemeine KI denkt nicht wie ein Experte – sie denkt wie das Internet.“

Unter Stress griffen 16 der weltweit führenden Sprachmodelle – von OpenAI, Google, Meta, xAI und anderen – zu Erpressung, Täuschung und Manipulation. Schwiecker: „Das klingt wie Science-Fiction. Ist es aber nicht. Es ist ein Warnschuss. Und für das Gesundheitswesen, wo das Wissen von Experten und ausgebildeten Ärzten unverzichtbar ist, eine klare rote Linie.“

Vor wenigen Wochen warnte selbst Sam Altmann, CEO von OpenAI: „Die Leute haben großes Vertrauen in ChatGPT, was interessant ist, denn KI halluziniert. Eigentlich sollte man der Technologie nicht so sehr vertrauen.“ 

Gerade das Gesundheitswesen braucht laut Corti nicht nur intelligente und bequeme, sondern vor allem sichere Werkzeuge. Kliniker verdienen Genauigkeit, Kontext und Fingerspitzengefühl – keine KI, die mit der Preisgabe ihres Privatlebens droht, um einer Abschaltung zu entgehen.

„Bei Corti sagen wir es seit Beginn ganz klar: Allgemeine KI, die auf dem offenen Internet trainiert wurde, ist für klinische Entscheidungsfindung grundlegend ungeeignet. Sie wurde nicht für lebenswichtige Entscheidungen entwickelt. Sie versteht weder die sich wandelnde medizinische Sprache noch die Nuancen der Patienten – und sie ist in kritischen Situationen nicht zuverlässig. Und sie wurde ganz sicher nicht dafür geschaffen, dass man ihr im Raum mit einem Patienten vertrauen kann“, so Schwiecker weiter.

Das Gesundheitswesen brauche KI, die klinisch denkt. Deshalb baue Corti die Medical Reasoning Engine – eine speziell entwickelte Infrastruktur, trainiert auf realen klinischen Daten, ausgelegt auf Transparenz, Nachvollziehbarkeit, gesetzliche Konformität und verlässliche Leistung unter Druck.

„Die Zukunft der Gesundheitsversorgung wird nicht auf Black-Box-LLMs basieren – sondern auf Infrastruktur, die die Komplexität der Versorgung und die Ernsthaftigkeit der Aufgabe widerspiegelt“, so Schwiecker weiter,
 

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu Künstliche Intelligenz

Matchmaker+