Es gab ja jetzt schon öfter Beiträge zur Reform des Gesundheitswesens und zur digitalen Patientenakte. Ich würde das gern weiterdenken und fände einen Beitrag bezüglich KI-Einsatz zur Kostenreduktion und zur Bekämpfung des Personalmangels interessant.
Wie man oft hört, wird KI in der Radiologie schon jetzt sehr erfolgreich eingesetzt und hat bessere Erkennungsraten bei diversen Krankheitsbildern. Auch beim Mitteilen von Laborergebnissen wird das wohl schon teilweise in den usa eingesetzt. Ich argumentiere, dass ein Großteil des Tagesgeschäfts eines Doktors mehr oder weniger Mustererkennung ist. Das fängt bei der einfachen Krankschreibung („Herr Doktor ich habe Kopfweh“) an und geht bis zur Erkennung von Hautkrebs. Der klassische „First Level Support“, vom Erfragen der Basisinfos, über die Erfassung der Symptome kann m.M.n komplett über nen Chatbot ablaufen, denn ehrlich gesagt haben echte Doktoren heut auch keine Zeit mehr das wirklich gewissenhaft zu machen. Im Zweifelsfall, oder z.B. bei Verdacht auf Missbrauch bei Krankschreibungen kann immer noch ein Dr drüber schauen, der sich dann vielleicht sogar wirklich Zeit für einen nehmen könnte.
Die Frage wird möglicherweise speziell in Deutschland aufkommen: wer haftet wenn die KI irrt? Eine falsche Diagnose, oder Symptome übersieht?
Es wird leider wie beim autonomen Fahren laufen:
Auch wenn AI durch bessere Erkennungsraten tausende Leben rettet und nur eine Handvoll Menschen wegen AI-Fehlern sterben, wird man irrational darauf beharren, dass menschliche Ärzte besser seien. Einfach, weil wir lieber tausende Verkehrstote durch übermüdete oder abgelenkte Fahrer akzeptieren, als eine Handvoll Verkehrstote durch die Entscheidung einer Maschine. Gleiches eben bei Toten durch Kunstfehler. Das ist einfach hochgradig irrational.
Die konkrete Haftung ist dabei ganz simpel zu beantworten: Ebenso, wie jeder Arzt eine Kunstfehler-Versicherung und jeder Autofahrer eine Haftpflichtversicherung hat, wird natürlich auch jede autonome Anwendung einer AI nur unter der Voraussetzung des Versicherungsschutzes akzeptiert werden. Diese Versicherungsbeiträge werden wegen der geringeren Fehleranfälligkeit nebenbei vermutlich signifikant niedriger sein als beim menschlichen Pendant, sie werden daher ein weiterer Grund, warum AI-Behandlungen/Fahrten günstiger werden als menschliche Behandlungen/Fahrten.
Die Angst vor AI-Fehlern ist gerade bei einfachen Erkennungsprozessen oder einfacher Dateninterpretation (Blutwerte etc.) einfach nur irrational, weil die Wahrscheinlichkeit menschlicher Fehler wirklich extrem viel größer ist. Und auch jetzt schon hängen menschliche Diagnosen zu großen Teilen davon ab, dass technische Prozesse (bildgebende Verfahren, Blutanalysen) zuvor korrekt abgelaufen sind. Das sind wir auch bereit zu akzeptieren. Einen Schritt weiter wollen viele aber nicht gehen.
Ich fürchte, in Zukunft werden Deutsche dann in’s europäische oder gar außer-europäische Ausland fliegen, um die bestmögliche Behandlung zu bekommen, weil wir - mal wieder - metaphorische Kupferkabel verlegen, während der Rest der Welt schon lange Glasfaser ausrollt…
Im Gegensatz zum autonomen Fahren, sind viele Fehlentscheidungen in der Medizin aber nicht gleich potenziell lebensbedrohlich. Hier könnte man erstmal die Linie ziehen und - analog zum 1st, 2nd, 3d Level Support in der IT - bei potentiell gefährlichen (Fehl-)diagnosen, oder Spezialfragen an Fachkräfte bzw. Ärzte weiterleiten.
Der Vergleich zum autonomen Fahren ist aber auf jeden Fall hilfreich, schließlich hat man es da immerhin geschafft, sich auf 5-Stufen des autonomen Fahrens und sogar die Haftungsfrage einigen zu können. Gibt es in der Medizin entsprechende Vorstöße?
Stufe 1 der „autonomen Medizin“ ist nämlich mehr oder weniger schon im Einsatz und heißt Google oder ChatGPT. Stand jetzt ist das aber weder spezialisiert noch reguliert und somit vielleicht sogar gefährlicher.
Hier könnte man erstmal die Linie ziehen und - analog zum 1st, 2nd, 3d Level Support in der IT - bei potentiell gefährlichen (Fehl-)diagnosen, oder Spezialfragen an Fachkräfte bzw. Ärzte weiterleiten.
Das finde ich interessant. Du sagst hier ja implizit aus, dass der menschliche Arzt besser diagnostiziert als eine KI. (Sonst würde man den Arzt ja nicht “überprüfen“ lassen.) Aber ist dieses Denken nicht genau das das eigentliche Problem? Auch wenn KI besser ist, vertrauen wir irrationalerweise der Einschätzung eines Menschen, die aber eigentlich schlechter ist.
Ich habe bei vielen Digitalisierungsfragen (nicht nur auf KI bezogen) das Gefühl, dass das Analoge/Bisherige immer als unfehlbar dargestellt wird. Ich habe schon oft in Diskussionen erlebt, dass mögliche Fehler von digitalen Lösungen genannt wurden und die digitale Lösung daher abzulehnen sei. Das wäre aber nur dann legitim, wenn der aktuelle Status Quo tatsächlich perfekt wäre; das ist er aber oftmals nicht. Stattdessen denkt man sich immer abstrusere Szenarien aus, in denen die digitale Lösung schlechter oder problematisch wäre - ganz egal, wie realistisch diese Szenarien tatsächlich sind und ohne dabei zu bedenken, dass das aktuelle System ebenfalls Mängel hat.
Warum gehst du also davon aus, dass ein Arzt tatsächlich besser diagnostiziert als eine KI? Es gibt Tausende Geschichten von Menschen, die von Ärzten nicht erst genommen und fehldiagnostiziert werden. Und trotzdem hast du das Gefühl, dass der Arzt prinzipiell vertrauenswürdiger als eine KI ist.
(Disclaimer: Ich will nicht sagen, dass KIs in jeder Hinsicht aktuell besser als Ärzte sind. Aber man würde eine KI ja nicht da einsetzen, wo sie tatsächlich schlecht ist. Wie @Daniel_K ja bereits geschrieben hat, ist die Mustererkennung die Paradedisziplin von KI. Und wenn Studien tatsächlich zu dem Ergebnis kommen, dass KIs in bestimmten Fällen besser diagnostiziert als ein Mensch, warum sollte dann der Mensch die KI überprüfen?)
Gerade wir Deutschen bereiten einem solchen Vorhaben in der Praxis große Probleme.
Der klassische „First Level Support“, vom Erfragen der Basisinfos, über die Erfassung der Symptome kann m.M.n komplett über nen Chatbot ablaufen, denn ehrlich gesagt haben echte Doktoren heut auch keine Zeit mehr das wirklich gewissenhaft zu machen.
Ich gebe dir absolut recht, dass das sehr sinnvoll, zeitsparend und angenehm für die Patienten sein kann. Aber: Das sollte nicht ChatGPT machen. ChatGPT, genauso wie alle anderen bekannten Chatbots, wurden nie explizit für so etwas trainiert. Du hast bereits die Radiologie angesprochen. Hier wird auch nicht ChatGPT eingesetzt, sondern speziell dafür entwickelte Modelle. Die können dann nicht so schön reden wie ChatGPT, können aber im Zweifel Krebs deutlich besser erkennen, da sie explizit hierfür trainiert wurden. Ich würde ChatGPT nicht mein Muttermal analysieren lassen, einfach weil ChatGPT niemals hierfür trainiert wurde.
Würde man also KI im Gesundheitswesen einsetzen wollen, dann müssen das hierfür speziell trainierte Modelle sein. Ich kann mir sehr gut vorstellen, dass eine Diagnose à la “hier sind alle meine Symptome, was habe ich?“ über KI gut funktionieren kann. (Gerne auch mit Nachfragen, um Dinge zu verdeutlichen, wie ein Arzt es eben auch machen würde.) Aber: Hierfür brauchen wir Daten. Viele und vor allem gute Daten, mit denen entsprechende Modelle trainiert werden könnten.
Ich finde es wirklich schade, dass gerade auch hier im Forum so sehr gegen die elektronische Patientenakte sowie die Nutzung der Daten zu Forschungszwecken (und vielleicht eines Tages zum Trainieren eines solchen Modells) gewettert wird. Wenn wir solche Modelle haben wollen (und meiner Meinung spricht viel dafür, dass wir das wollen), dann brauchen wir Daten hierfür. Aber woher sollen die kommen?
Tue ich nicht. Der 1st Level Support gibt nicht nur an den höheren gelegenen Support ab, wenn er mit seinem Latein am Ende ist, sondern auch wenn ihm die Befugnis für bestimmte Schritte fehlt, oder er schlicht der falsche Ansprechpartner ist.
Z.B. bei der Erteilung von btm Rezepten, auffälligem/unklaren Verhalten des Patienten oder schlicht Problemen bei der Nutzung.
Das ist aber mangels offizieller Alternativen aktuell genauso, was ich ja weiter oben bereits kritisiert habe. Ich würde sogar soweit gehen, dass der Gesetzgeber die Nutzung nicht spezialisierter llms für medizinische Zwecke verbieten sollte. Dafür braucht es aber erst mal Regulierungen und Alternativen.
Du willst mir verbieten, KI zu nutzen, um mich zu informieren? Oder dem Arzt, dass er sich informiert?
Ich will dass die Anbieter gezwungen werden das stärker zu reglementieren. Denn ein chatbot geht über reine Information hinaus und erteilt Ratschläge. So wie nicht jeder Anlage-/Rechts-/Gesundheitsberatung machen darf, sollten auch entsprechende Funktionen bei KIs reglementiert sie.
KIs sind das ohnehin auch heute schon. Sonst würden die Bots am laufenden Band wohl diskriminieren und Hass verbreiten. Nur kommt die Reglementierung in der Regel von den Anbietern selbst und nicht vom Staat.