Einem neuen Bericht zufolge müssen Gesundheitsdienstleister darüber nachdenken, wie sie das Vertrauen der Verbraucher in generative KI stärken können, damit die Branche das Potenzial der Technologie voll ausschöpfen kann.
Der am Donnerstag von Deloitte veröffentlichte Bericht basiert auf einer im März durchgeführten Umfrage unter mehr als 2.000 erwachsenen US-Amerikanern. Die Ergebnisse zeigen, dass die Nutzung generativer KI durch Verbraucher aus gesundheitlichen Gründen – um Fragen zu Symptomen zu beantworten, ihnen bei der Suche nach einem Anbieter in ihrem Netzwerk zu helfen oder Anleitungen zur Pflege eines geliebten Menschen zu geben – von 2023 bis 2024 nicht zugenommen hat.
Tatsächlich ist die Nutzung generativer KI durch Verbraucher aus gesundheitlichen Gründen leicht zurückgegangen. Der Bericht zeigte, dass im Jahr 2024 37 % der Verbraucher generative KI aus gesundheitlichen Gründen verwenden, verglichen mit 40 % der Verbraucher im letzten Jahr. Ein Hauptgrund für diese stagnierende Einführung ist das wachsende Misstrauen der Verbraucher gegenüber den Informationen, die generative KI liefert, heißt es in dem Bericht.
Krankenhäuser können das Vertrauen ihrer Patienten in generative KI-Modelle stärken – etwa durch transparente Gespräche, indem sie die Patienten um ihr Einverständnis zur Nutzung der Tools bitten oder indem sie die Modelle anhand interner Daten trainieren, sagten ein KI-Experte von Deloitte und klinische Leiter von Gesundheitssystemen.
Was müssen Krankenhäuser über die Einstellung der Verbraucher gegenüber generativer KI wissen?
Im Vergleich zu Deloittes Umfrage von 2023 zur Einstellung der Verbraucher gegenüber generativer KI im Gesundheitswesen hat das Misstrauen gegenüber der Technologie in allen Altersgruppen zugenommen – wobei die stärksten Zuwächse bei den Millennials und den Babyboomern zu verzeichnen waren. Das Misstrauen der Millennials gegenüber den von generativer KI bereitgestellten Informationen stieg von 21 % auf 30 %, während das Misstrauen der Babyboomer von 24 % auf 32 % stieg.
Dank der Verfügbarkeit öffentlicher Modelle wie ChatGPT von OpenAI oder Gemini von Google haben Verbraucher freie Hand, mit generativer KI zu experimentieren und sie in ihrem täglichen Leben zu nutzen, betonte Bill Fera, Direktor und Leiter der KI-Abteilung bei Deloitte. Viele Amerikaner haben bei der Verwendung dieser Modelle fragwürdige oder ungenaue Informationen erhalten, und diese Erfahrungen könnten dazu führen, dass die Menschen die Technologie als für den Einsatz im Gesundheitswesen ungeeignet betrachten, erklärte er in einem Interview.
„Ich denke, die Botschaft für die Krankenhäuser ist, dass sie diese großen Sprachmodelle, wenn sie sie einsetzen wollen – und wir meinen, das sollten und werden sie –, anhand einer umfangreicheren medizinischen Datenbank trainieren müssen, um bessere Ergebnisse zu erzielen“, bemerkte Fera.
Kostenlose, öffentlich verfügbare große Sprachmodelle werden nicht anhand spezifischer Patientendaten trainiert und sind daher bei der Beantwortung gesundheitsbezogener Fragen nicht immer genau. Eine aktuelle Studie ergab, dass ChatGPT 83 von 100 pädiatrischen Fällen falsch diagnostizierte.
Idealerweise sollten Krankenhäuser ihre generativen KI-Modelle anhand der Daten ihrer eigenen Patienten trainieren und dabei synthetische Daten oder Daten ähnlicher Gesundheitsdienstleister verwenden, um etwaige Lücken zu schließen, sagte Fera.
Darüber hinaus empfahl Fera den Krankenhäusern, ihre Patienten darüber aufzuklären, wie und warum generative KI in ihrer Organisation eingesetzt wird – und auf das Feedback der Patienten zu achten. Er merkte an, dass diese Art der Transparenz „nicht verhandelbar“ sein sollte.
Und es würde einen großen Beitrag zur Vertrauensbildung leisten, da auch die Patienten diese Transparenz fordern. Der Bericht von Deloitte zeigte, dass 80 % der Verbraucher darüber informiert werden möchten, wie ihr Gesundheitsdienstleister generative KI nutzt, um Behandlungsentscheidungen zu beeinflussen und Behandlungsmöglichkeiten zu ermitteln.
Wenn sich Krankenhäuser die Zeit nehmen, Patienten die generativen KI-Modelle, die sie in der Patientenversorgung anwenden, näherzubringen und ihnen zu erklären, welchen Nutzen diese Modelle bringen sollen, können die Patienten wirklich verstehen, dass die KI nicht dazu da ist, ihren Arzt zu ersetzen, sondern vielmehr dessen Fähigkeiten erweitert, um eine qualitativ bessere Versorgung zu bieten, sagt Fera.
Ein Tool für die klinische Dokumentation ist beispielsweise nicht dafür ausgelegt, die Erstellung klinischer Notizen vollständig zu automatisieren. Es dient vielmehr dazu, Daten zu sammeln und einen Entwurf der Notiz zu erstellen, den der Kliniker bearbeiten und schließlich genehmigen kann. Dies nimmt den Klinikern zwar nicht die Aufgabe der Dokumentation ab, reduziert aber den Zeitaufwand für diesen untergeordneten Prozess erheblich und ermöglicht ihnen, ihre Tätigkeit auf höchstem Niveau auszuüben.
Aus Feras Sicht besteht für Gesundheitsdienstleister die Schlüsselrolle, das Vertrauen der Patienten in die Technologie der Zukunft zu stärken, indem sie Klarheit über die Vorteile schaffen, die generative KI bieten kann.
Erläuterung der Vorteile
Das Verständnis der Amerikaner für Technologie unterscheidet sich stark von Person zu Person, und große Teile der Bevölkerung wissen möglicherweise nicht genau, was sich der Begriff KI bezieht, betont Deb Muro, Chief Information Officer bei El Camino Health in der Bay Area. Aus diesem Grund könnten einige Patienten Angst bekommen, wenn sie zum ersten Mal hören, dass bei ihrer Behandlung eine nicht-menschliche Form von Intelligenz zum Einsatz kommt – aber ihre Gefühle werden sich höchstwahrscheinlich ändern, wenn ihnen die Technologie gründlich erklärt wird, bemerkt Muro.
„Wenn ich mit anderen Führungskräften in der Informationstechnologie spreche, sagen wir alle, dass wir KI schon seit Jahren nutzen. Nur hat die generative KI dem Ganzen eine zusätzliche Note verliehen. Das ist spannend“, erklärte sie.
Aus Muros Sicht kann generative KI als Forschungspartner betrachtet werden. Die Technologie verwendet Daten, um Inhalte für Ärzte zu erstellen, beispielsweise den Entwurf einer Krankenakte, eine Zusammenfassung der Patientenakten oder einen Überblick über die medizinische Forschung. Ärzte haben bei Behandlungsentscheidungen immer das letzte Wort, sodass generative KI ihre Expertise keineswegs ersetzt. Stattdessen reduziert sie die Menge der alltäglichen, datenorientierten Aufgaben, die Ärzte erledigen müssen, sodass sie mehr Zeit mit den Patienten verbringen können.
In Gesprächen mit Patienten müssten die Anbieter sicherstellen, dass diese dies verstehen, bemerkte Muro.
Anbieter sollten sich auch über die spezifischen Anwendungsfälle im Klaren sein, auf die sie generative KI anwenden, da die Erklärung dieser Anwendungsfälle den Patienten eine bessere Vorstellung davon gebe, welchen Nutzen die Technologie für sie haben könnte, fügte sie hinzu.
Beispielsweise möchte ein Arzt, der einen Patienten behandelt, vielleicht überprüfen, wie Patienten mit ähnlichen Symptomen und Profilen in der Vergangenheit behandelt wurden. Anstatt sich durch die Akten zu wühlen und sie zu filtern, können die Ärzte einem generativen KI-Tool eine einfache Frage stellen und viel früher mit der Ausarbeitung eines Behandlungsplans für ihren Patienten beginnen, erklärte Muro.
Beziehungen sind die Grundlage für Vertrauen
Ein weiterer Gesundheitsmanager – Patrick Runnels, Chefarzt der University Hospitals in Cleveland – stimmte zu, dass sich die Anbieter die Zeit nehmen müssen, zu erklären, wie KI zur Verbesserung der Versorgung eingesetzt wird. Er glaubt, dass diese Gespräche am sinnvollsten sind, wenn sie direkt zwischen einem Patienten und seinem Pflegeteam stattfinden.
Eine starke Beziehung zwischen Anbieter und Patient sei der Schlüssel zum Aufbau von Vertrauen in der Gesundheitswelt, betonte Runnels. Patienten würden die Vorteile generativer KI-Tools eher verstehen und akzeptieren, wenn sie von einem Anbieter erklärt würden, den sie kennen und mit dem sie sich wohlfühlen, erklärte er.
„Die Verbundenheit zwischen Patient und Leistungserbringer muss im Mittelpunkt stehen“, erklärte Runnels. „Sie können sagen: ‚Wir sind Ihr Betreuungsteam – generative KI hilft uns, Ihre Versorgung im Hintergrund zu regeln, aber Sie werden immer eine Verbindung zu Ihrer Krankenschwester, Ihrem Sozialarbeiter oder Ihrem Arzt haben.‘ Sie müssen diese Idee zentralisieren und zeigen, dass dies immer der Fall ist. KI nimmt Beziehungen nicht weg, die für Vertrauen von zentraler Bedeutung sind. Und wenn Sie kein Vertrauen haben, wird die Paranoia aller verrückt.“
Ashis Barad, Chief Digital and Information Officer beim in Pittsburgh ansässigen Allegheny Health Network (AHN), erklärte zudem, es sollte in der Verantwortung des Pflegeteams liegen, Patienten über Anwendungsfälle generativer KI zu informieren.
So bereitet AHN beispielsweise die Einführung eines virtuellen Pflegeprogramms für stationäre Patienten vor, das generative KI einbezieht. Wenn das Programm anläuft, werden die Pflegekräfte von AHN darin geschult, den Patienten das neue technologiegestützte Pflegemodell genau zu erklären.
Die Ausbildung der Pflegekräfte werde sie darauf vorbereiten, zu vermitteln, dass sie weiterhin anwesende und aktive Mitglieder des Pflegeteams des Patienten seien, erklärte Barad. Er sagte, die zentrale Botschaft dieser Gespräche sollte den Patienten vermitteln, dass die Pflegekräfte nicht ersetzt werden, sondern ihnen Werkzeuge gegeben werden, mit denen sie sich besser um die Patienten kümmern können.
Betonen Sie den Datenschutz und fragen Sie nach der Zustimmung
Ein weiterer wichtiger Weg, das Vertrauen der Verbraucher in generative KI zu stärken, besteht darin, Transparenz hinsichtlich der Daten zu schaffen, mit denen diese Modelle trainiert werden, sagte Barad.
AHN hat kürzlich ein neues generatives KI-Tool namens Sidekick eingeführt, das man sich laut Barad als die eigene Version von ChatGPT des Gesundheitssystems vorstellen kann. Das Tool steht allen 22.000 Mitarbeitern von AHN sowie allen 44.000 Mitarbeitern der Muttergesellschaft Highmark Health zur Verfügung. Es wurde ausschließlich mit den eigenen Daten von AHN und Highmark trainiert, bemerkte Barad.
Die Tatsache, dass AHN und Highmark gemeinsam ihr eigenes Tool entwickelt haben und dabei Daten verwenden, die spezifisch auf ihre Patientenpopulationen zugeschnitten sind, sollte den Menschen ein viel besseres Gefühl geben, als wenn AHN ein KI-Tool verwenden würde, das mit allgemeinen Daten trainiert wurde, erklärte er.
„Es wurde mit unseren eigenen Daten trainiert und ist geschlossen, sodass es keinerlei Lecks gibt. Das ermöglicht es uns, alles hineinzupacken, was wir wollen. Und wir haben Firewalls zwischen Highmark und AHN, sodass wir, was den Schutz von PHI (persönlichen Gesundheitsinformationen) betrifft, alles geklärt haben“, sagte Barad.
Er merkte auch an, dass einige Anwendungsfälle generativer KI vor dem Einsatz die ausdrückliche Zustimmung des Patienten erfordern könnten. Ambient-Listening-Tools während eines Arzt-Patienten-Besuchs sind hierfür ein wichtiges Beispiel.
Diese Tools – hergestellt von Unternehmen wie Nuance, DeepScribe und Abridge – hören die Interaktionen zwischen Patient und Arzt ab und zeichnen sie auf, sodass sie automatisch einen Entwurf einer klinischen Notiz erstellen können. Wie viele andere Gesundheitssysteme im ganzen Land verwendet AHN Umgebungsdokumentationstechnologie und fragt die Patienten vor jedem Besuch um ihre Zustimmung, sagte Barad.
Wenn Ärzte mit Patienten über diese KI-Modelle sprechen, erklären sie ihnen, dass die Tools so konzipiert sind, dass sie während des gesamten Besuchs nicht tippen müssen und ihnen somit mehr Zeit bleibt, den Blickkontakt mit den Patienten aufrechtzuerhalten und für die Patienten da zu sein.
Barad ist selbst Kliniker – ein Kindergastroenterologe, der noch immer praktiziert. Er sagte, dass er seinen Patienten die Vorteile der Ambient-Listening-Technologie klar erklärt und dass kein einziger Patient seine Zustimmung verweigert habe.
Die Branche muss möglicherweise zusammenarbeiten, um Standards für Patientenaufklärung festzulegen
Das benachbarte Gesundheitssystem von AHN, UPMC, verwendet ebenfalls Ambient-Dokumentationstechnologie und verlangt eine mündliche Zustimmung, bevor das Tool während eines Termins eingesetzt wird. Für Robert Bart, den leitenden medizinischen Informationsbeauftragten von UPMC, ist dies ein Anwendungsfall, der eindeutig die Zustimmung des Patienten erfordert, da dieser aufgezeichnet wird. Aber es gebe keinen Industriestandard, erklärte er.
„Es bleibt abzuwarten, welche zusätzlichen Arten von Zustimmungen und/oder Dokumentationen in Zukunft erforderlich sind“, sagte Bart.
So deutete der Bericht von Deloitte beispielsweise an, dass Krankenhäuser in den kommenden Jahren möglicherweise beginnen könnten, Haftungsausschlussklauseln auf klinische Empfehlungen zu setzen, die mithilfe generativer KI erstellt wurden. Es gebe keinen Industriestandard, der Krankenhäuser darüber informiere, wann dies notwendig sei und wann nicht, betonte Bart.
Allerdings müsse die Gesundheitsbranche vielleicht lieber früher als später damit beginnen, standardisierte Protokolle für die Patientenaufklärung im Hinblick auf den Einsatz generativer KI zu etablieren – denn die Nutzung dieser Technologie werde nur noch weiter zunehmen, sagte er.
„Ich bin fest davon überzeugt, dass Ärzte, die über künstliche Intelligenz verfügen, in Zukunft besser in der Lage sein werden, die besten Entscheidungen für ihre Patienten zu treffen, als diejenigen, die noch nie etwas mit künstlicher Intelligenz zu tun hatten“, erklärte er.
Foto: steved_np3, Getty Images