Als Verbraucher neigen wir dazu, unsere Gesundheitsinformationen kostenlos im Internet preiszugeben, beispielsweise wenn wir Dr. Google fragen, „wie man einen gebrochenen Zeh behandelt“. Doch die Vorstellung, dass unser Arzt künstliche Intelligenz (KI) für die Diagnose auf der Grundlage einer Analyse unserer Gesundheitsdaten einsetzt, bereitet vielen von uns Unbehagen, wie eine Umfrage des Pew Research Center ergab.
Wie viel besorgter wären die Verbraucher also, wenn sie wüssten, dass im Namen der Innovation riesige Mengen ihrer medizinischen Daten zur Analyse in KI-gestützte Modelle hochgeladen würden?
Dies ist eine Frage, die sich Führungskräfte im Gesundheitswesen möglicherweise stellen möchten, insbesondere angesichts der Komplexität, Komplexität und Haftung, die mit dem Hochladen von Patientendaten in diese Modelle verbunden ist.
Was auf dem Spiel steht
Je mehr sich der Einsatz von KI im Gesundheitswesen und in der Gesundheitsforschung durchsetzt, desto größer werden die Risiken, die mit KI-gestützten Analysen verbunden sind – und desto größer ist das Potenzial für einen Vertrauensverlust der Verbraucher.
Eine aktuelle Umfrage von Fierce Health und Sermo, einem sozialen Netzwerk für Ärzte, ergab, dass 76 % der befragten Ärzte für die klinische Entscheidungsfindung allgemeine große Sprachmodelle (LLMs) wie ChatGPT verwenden. Diese öffentlich zugänglichen Tools bieten Zugriff auf Informationen wie mögliche Nebenwirkungen von Medikamenten, Diagnoseunterstützung und Empfehlungen zur Behandlungsplanung. Sie können auch dazu beitragen, ärztliche Notizen von Patientenbegegnungen in Echtzeit über Ambient Listening zu erfassen, ein immer beliebter werdender Ansatz, um Ärzten den Verwaltungsaufwand zu nehmen, damit sie sich auf die Pflege konzentrieren können. In beiden Fällen sind ausgereifte Praktiken zur Integration von KI-Technologien unerlässlich, beispielsweise die Verwendung eines LLM für einen Faktencheck oder einen Erkundungspunkt, anstatt sich darauf zu verlassen, um eine Antwort auf komplexe Pflegefragen zu liefern.
Es gibt jedoch Anzeichen dafür, dass den Risiken der Nutzung von LLMs für Pflege und Forschung mehr Aufmerksamkeit gewidmet werden muss.
Beispielsweise bestehen erhebliche Bedenken hinsichtlich der Qualität und Vollständigkeit der Patientendaten, die zur Analyse in KI-Modelle eingespeist werden. Die meisten Gesundheitsdaten sind unstrukturiert und werden in offenen Notizfeldern in der elektronischen Gesundheitsakte (EHR), Patientennachrichten, Bildern und sogar gescannten, handgeschriebenen Texten erfasst. Tatsächlich gibt die Hälfte der Gesundheitsorganisationen an, dass weniger als 30 % der unstrukturierten Daten für die Analyse verfügbar sind. Es gibt auch Inkonsistenzen bei den Datentypen, die in den Bereich „unstrukturierte Daten“ fallen. Diese Faktoren schränken den Gesamtüberblick über die Gesundheit von Patienten und Bevölkerung ein. Sie erhöhen auch die Wahrscheinlichkeit, dass KI-Analysen verzerrt sind und Daten widerspiegeln, die bestimmte Bevölkerungsgruppen unterrepräsentieren oder unvollständig sind.
Und während Vorschriften zur Nutzung geschützter Gesundheitsinformationen (PHI) einige Forscher und Analysten davon abgehalten haben, alle ihnen zur Verfügung stehenden Daten zu nutzen, sind die schieren Kosten der Datenspeicherung und des Informationsaustauschs ein wichtiger Grund dafür, dass die meisten Gesundheitsdaten nicht ausreichend genutzt werden, insbesondere in Vergleich mit anderen Branchen. Dies gilt auch für die Komplexität, die mit der Anwendung fortschrittlicher Datenanalysen auf Gesundheitsdaten verbunden ist und gleichzeitig die Einhaltung von Gesundheitsvorschriften, einschließlich derjenigen im Zusammenhang mit PHI, gewährleistet ist.
Derzeit befinden sich Führungskräfte im Gesundheitswesen, Kliniker und Forscher an einem einzigartigen Wendepunkt. KI birgt ein enormes Potenzial, Innovationen voranzutreiben, indem sie klinische Daten für Analysen auf eine Weise nutzt, die sich die Branche noch vor zwei Jahren nur vorstellen konnte. In einer Zeit, in der einer von sechs Erwachsenen KI-Chatbots mindestens einmal im Monat für Gesundheitsinformationen und Ratschläge nutzt, zeigt dies die Leistungsfähigkeit der KI im Gesundheitswesen über „Dr. Google“ zu schützen und gleichzeitig das zu schützen, was für Patienten am wichtigsten ist – wie die Privatsphäre und Integrität ihrer Gesundheitsdaten – ist von entscheidender Bedeutung, um das Vertrauen der Verbraucher in diese Bemühungen zu stärken. Die Herausforderung besteht darin, die Vorschriften für Gesundheitsdaten einzuhalten und gleichzeitig kreativ mit Ansätzen zur KI-gestützten Datenanalyse und -nutzung umzugehen.
Die richtigen Schritte für die KI-Analyse unternehmen
Da der Einsatz von KI im Gesundheitswesen zunimmt, erfordert eine moderne Datenmanagementstrategie einen ausgefeilten Ansatz zum Datenschutz, der den Verbraucher in den Mittelpunkt stellt und gleichzeitig die Grundprinzipien einer effektiven Datenkonformität in einer sich entwickelnden Regulierungslandschaft erfüllt.
Hier sind drei wichtige Überlegungen für Führungskräfte und Forscher zum Schutz der Privatsphäre der Patienten, der Einhaltung von Vorschriften und letztendlich des Vertrauens der Verbraucher im Zuge der Beschleunigung der KI-Innovation.
1. Beginnen Sie mit dem Vertrauen der Verbraucher. Anstatt einfach auf Vorschriften zum Datenschutz zu reagieren, sollten Sie die Auswirkungen Ihrer Bemühungen auf die Patienten berücksichtigen, die Ihre Organisation betreut. Wenn Patienten auf Ihre Fähigkeit vertrauen, Daten sicher und geschützt für KI-Innovationen zu nutzen, trägt dies nicht nur dazu bei, das für die Optimierung von KI-Lösungen erforderliche Maß an Vertrauen aufzubauen, sondern motiviert sie auch dazu, ihre eigenen Daten für KI-Analysen zu teilen, was für den Aufbau einer solchen von entscheidender Bedeutung ist personalisierter Pflegeplan. Heute legen 45 % der von Deloitte befragten Führungskräfte der Gesundheitsbranche Wert darauf, das Vertrauen der Verbraucher aufzubauen, damit sich die Verbraucher wohler fühlen, wenn sie ihre Daten teilen und für die KI-Analyse verfügbar machen.
Ein wichtiger Schritt, den Sie beim Schutz des Verbrauchervertrauens berücksichtigen sollten: Implementieren Sie strenge Kontrollen darüber, wer auf die Daten zugreift und diese nutzt – und wie. Dieses Grundprinzip eines wirksamen Datenschutzes trägt dazu bei, die Einhaltung aller geltenden Vorschriften sicherzustellen. Es stärkt auch die Fähigkeit der Organisation, die notwendigen Erkenntnisse zu generieren, um bessere Gesundheitsergebnisse zu erzielen und gleichzeitig die Zustimmung der Verbraucher sicherzustellen.
2. Richten Sie ein Data-Governance-Komitee für KI-Innovationen ein. Der angemessene Einsatz von KI im Geschäftskontext hängt von einer Reihe von Faktoren ab, von der Bewertung der damit verbundenen Risiken bis hin zur Reife der Datenpraktiken, Beziehungen zu Kunden und mehr. Aus diesem Grund sollte ein Data-Governance-Ausschuss Experten aus der Gesundheits-IT sowie Kliniker und Fachleute aller Disziplinen umfassen, von Krankenschwestern über Bevölkerungsgesundheitsspezialisten bis hin zu Mitgliedern des Revenue-Cycle-Teams. Dadurch wird sichergestellt, dass die richtigen Dateninnovationsprojekte zum richtigen Zeitpunkt durchgeführt werden und die Ressourcen der Organisation eine optimale Unterstützung bieten. Darüber hinaus werden alle wichtigen Stakeholder einbezogen, um die Risiken und Vorteile des Einsatzes KI-gestützter Analysen zu ermitteln und den richtigen Datenschutz zu gewährleisten, ohne Innovationen unnötig zu behindern. Anstatt „Ihre eigene Arbeit zu bewerten“, sollten Sie darüber nachdenken, ob ein externer Experte bei der Feststellung, ob die richtigen Schutzmaßnahmen vorhanden sind, hilfreich sein könnte.
3. Reduzieren Sie die Risiken, die mit der erneuten Identifizierung sensibler Patienteninformationen verbunden sind. Es ist ein Mythos zu glauben, dass einfache Anonymisierungstechniken wie das Entfernen von Namen und Adressen ausreichen, um die Privatsphäre der Patienten zu schützen. Die Realität ist, dass fortgeschrittene Reidentifizierungstechniken, die von böswilligen Akteuren eingesetzt werden, oft vermeintlich anonymisierte Daten zusammenfügen können. Dies erfordert ausgefeiltere Ansätze zum Schutz der Daten vor dem Risiko einer erneuten Identifizierung, wenn die Daten im Ruhezustand sind. In diesem Bereich ist ein allgemeiner Ansatz zur Datenverwaltung nicht mehr ausreichend. Eine wichtige strategische Frage für Organisationen lautet: „Wie geht unsere Organisation mit Reidentifizierungsrisiken um – und wie können wir diese Risiken kontinuierlich bewerten?“
Während Gesundheitsorganisationen bei der effektiven Implementierung von KI vor einigen der größten Hürden stehen, sind sie auch bereit, einige der lebensveränderndsten Anwendungen dieser Technologie einzuführen. Durch die Bewältigung der mit der KI-gestützten Datenanalyse verbundenen Risiken können Ärzte und Forscher im Gesundheitswesen die ihnen zur Verfügung stehenden Daten effektiver nutzen – und das Vertrauen der Verbraucher stärken.
Foto: steved_np3, Getty Images
Timothy Nobles ist der Chief Commercial Officer von Integral. Bevor er zu Integral kam, war Nobles Chief Product Officer bei Trilliant Health und Produktleiter bei Embold Health, wo er fortschrittliche Analyselösungen für Gesundheitsdienstleister und Kostenträger entwickelte. Mit über 20 Jahren Erfahrung in den Bereichen Daten und Analyse hatte er Führungspositionen bei innovativen Unternehmen in verschiedenen Branchen inne.
Dieser Beitrag erscheint über das MedCity Influencers-Programm. Über MedCity Influencer kann jeder seine Sicht auf Wirtschaft und Innovation im Gesundheitswesen auf MedCity News veröffentlichen. Klicken Sie hier, um herauszufinden, wie.