Noch im Jahr 2022 waren große Sprachmodelle (LLMs) der breiten Öffentlichkeit praktisch unbekannt. Jetzt experimentieren Verbraucher und ganze Branchen auf der ganzen Welt mit LLM-basierter Software und setzen sie ein. Dies wird heute allgemein als „Generative KI“ bezeichnet, um Fragen zu beantworten, Probleme zu lösen und Möglichkeiten zu schaffen.
Doch wenn es um den Einsatz künstlicher Intelligenz (KI) im Gesundheitswesen geht, stehen Ärzte und politische Entscheidungsträger vor der zusätzlichen Herausforderung, dafür zu sorgen, dass diese Technologie sicher implementiert wird, um die Patienten zu schützen und Patientendaten zuverlässig zu sichern.
Kliniker sind verständlicherweise skeptisch, was die Qualität der Informationen angeht, die sie von Gen-AI-Plattformen erhalten, denn diese Programme neigen dazu, Fakten zu erfinden oder auf eine Weise zu „halluzinieren“, die sich nur schwer verhindern und vorhersagen lässt. LLMs gelten in vielerlei Hinsicht als „Black Boxes“, d. h. ihre Funktionsweise ist nicht leicht verständlich, was zu mangelnder Rechenschaftspflicht und mangelndem Vertrauen führt. KI kann zwar klinische Empfehlungen geben, kann aber oft keine Links zu Datenquellen oder die Begründung dieser Empfehlungen enthalten. Dies erschwert es Klinikern, ihre eigene professionelle Aufsicht auszuüben, ohne sich durch riesige Datenmengen wühlen zu müssen, um die KI auf ihre Fakten zu überprüfen.
KI kann außerdem anfällig für absichtliche und unabsichtliche Voreingenommenheit sein, je nachdem, wie sie trainiert oder implementiert wird. Darüber hinaus könnten böswillige Akteure, die die menschliche Natur verstehen, versuchen, die Grenzen der Ethik zu überschreiten, um durch KI technische oder wirtschaftliche Vorteile zu erlangen. Aus diesen Gründen ist eine gewisse Form staatlicher Aufsicht ein willkommener Schritt. Das Weiße Haus reagierte auf diese Bedenken im vergangenen Oktober mit einer Durchführungsverordnung, in der es den sicheren und ethischen Einsatz dieser sich entwickelnden Technologie forderte.
Gängige grundlegende Modelle der KI sind für viele medizinische Anwendungen nicht geeignet. Doch mit der Weiterentwicklung der KI wird es Möglichkeiten geben, diese Technologien heute sinnvoll und sicher im Gesundheitswesen einzusetzen. Der Schlüssel liegt darin, weiterhin neue Durchbrüche zu begrüßen – mit starken Schutzplanken für Sicherheit, Datenschutz und Transparenz.
Durchbrüche bei der medizinischen KI verbessern deren sichere Anwendung
Gen-AI-Software führt Analysen durch oder erstellt Ausgaben mithilfe der Fähigkeit von LLMs, menschliche Sprache zu verstehen und zu generieren. Die Qualität der Ausgaben wird also von der Qualität des Quellmaterials beeinflusst, das zum Erstellen der LLMs verwendet wird. Viele Gen-AI-Modelle basieren auf öffentlich verfügbaren Informationen wie Wikipedia-Seiten oder Reddit-Posts, die nicht immer genau sind. Daher ist es keine Überraschung, dass sie möglicherweise ungenaue Ausgaben liefern. Dies ist jedoch in einem klinischen Umfeld einfach nicht tolerierbar.
Glücklicherweise ermöglichen Fortschritte in der medizinischen KI nun, Deep-Learning-Modelle in großem Maßstab für den Einsatz im Gesundheitswesen zu nutzen. Entwickelt von medizinischen Experten, die die klinischen Zusammenhänge, Terminologien, Akronyme und Abkürzungen verstehen, die für Gen-AI-Software und traditionelle NLP nicht entzifferbar oder zugänglich sind, treiben diese Experten die Entwicklung medizinischer KI für Gesundheitsanwendungen voran.
LL.M. werden heute anhand riesiger Mengen an annotierten medizinischen Daten geschult, um im Gesundheitswesen präzise und sicher arbeiten zu können. Um dieses Ziel zu erreichen, ist es unerlässlich, dass gut ausgebildete LL.M. und medizinische KI auf frei formulierte klinische Notizen und Berichte sowie andere unstrukturierte Texte zugreifen können, die nach Branchenschätzungen etwa 80 % aller medizinischen Daten ausmachen.
In den letzten Jahren entwickelte KI für medizinische Zwecke kann unstrukturierte medizinische Texte in großem Umfang extrahieren, normalisieren und kontextualisieren. Kliniker benötigen KI-Systeme, die die gesamte Krankenakte eines Patienten aufnehmen und verstehen können, und Datenwissenschaftler und Forscher benötigen Systeme, die dasselbe für das gesamte EHR-System eines Gesundheitssystems tun können. KI für medizinische Zwecke wurde für Unternehmen entwickelt, um Millionen von Dokumenten, von denen die meisten in unstrukturierter Form vorliegen, schnell und nahezu in Echtzeit zu verarbeiten und zu verstehen. Dies war bisher nicht möglich.
Burnout bei Klinikern reduzieren
Ein weiterer Problembereich ist, dass Gen AI bei unsachgemäßem Einsatz seine Benutzer in einem Schwall nicht hilfreicher Informationen ertränken kann. LLMs können auch unter dem sogenannten „Lost in the Middle“-Problem leiden, bei dem sie Informationen aus den mittleren Teilen langer Dokumente nicht effektiv nutzen. Für Kliniker am Point of Care führt dies zu Frustration und Zeitverschwendung bei der Suche nach relevanten Patientendaten in umfangreichen Ausgaben. Da die Menge der verfügbaren medizinischen Informationen weiter zunimmt, wird es voraussichtlich noch schwieriger, die von Klinikern benötigten Daten zu finden und zu verarbeiten. Anstatt die Arbeit klinischer Mitarbeiter einfacher zu machen, kann Gen AI das Burnout von Klinikern verschlimmern.
Im Gegensatz dazu schafft KI für medizinische Zwecke ein Gleichgewicht zwischen Erinnerung und Präzision. Sie liefert Ärzten genau die richtige Menge an genauen und relevanten Daten, um fundierte, evidenzbasierte Entscheidungen am Behandlungsort zu treffen und Informationen mit den Originaldaten in der Patientenakte zu verknüpfen. Dies sorgt für Transparenz und ermöglicht es Ärzten, ihre Informationsquellen ohne zeitaufwändige Suche auf Richtigkeit und Genauigkeit zu überprüfen. Indem sie es Ärzten ermöglicht, ihre Arbeit effektiver und effizienter zu erledigen und sich mehr auf die Patienten zu konzentrieren, kann KI für medizinische Zwecke die Arbeitszufriedenheit und -leistung steigern und gleichzeitig die Zeit reduzieren, die nach Feierabend mit der Erledigung von Büroarbeiten verbracht wird.
Jenseits der Blackbox
Aufgrund der aktuellen Intransparenz der Algorithmen der neuen Generation von KI ist es noch zu früh, sie außer in begrenztem Umfang im Gesundheitswesen und in der medizinischen Forschung einzusetzen. Was Ärzte wollen und brauchen, sind genaue, präzise und überprüfbare Informationen am Behandlungsort. Medizinische KI ist jetzt in der Lage, diese Anforderungen zu erfüllen und gleichzeitig Patientendaten zu schützen, zur Verbesserung der Ergebnisse beizutragen und das Burnout der Ärzte zu reduzieren. Da sich alle KI-Technologien weiterentwickeln, ist Transparenz – keine Black Boxes – entscheidend, um diese Technologien auf die wirksamste und ethischste Weise einzusetzen und so die Qualität der Gesundheitsversorgung zu verbessern.
Foto: ra2studio, Getty Images
Dr. Tim O’Connell ist Gründer und CEO von emtelligent, einer in Vancouver ansässigen medizinischen NLP-Technologielösung. Er ist außerdem praktizierender Radiologe und stellvertretender Vorsitzender der klinischen Informatik an der University of British Columbia.
Dieser Beitrag erscheint im Rahmen des MedCity Influencers-Programms. Über MedCity Influencers kann jeder seine Sichtweise zu Wirtschaft und Innovation im Gesundheitswesen auf MedCity News veröffentlichen. Klicken Sie hier, um zu erfahren, wie.