Die Weltgesundheitsorganisation hat vor Kurzem Sarah live geschaltet, ihren generativen KI-Chatbot, dessen Aufgabe es ist, die Öffentlichkeit bei der Führung eines gesünderen Lebensstils zu beraten.
Laut WHO ist Sarah, die Abkürzung steht für Smart AI Resource Assistant for Health, eine „digitale Gesundheitsförderin, die rund um die Uhr in acht Sprachen per Video oder Text verfügbar ist. Sie kann Tipps zum Stressabbau, zur richtigen Ernährung, zum Aufhören mit Tabak und E-Zigaretten, zu mehr Sicherheit auf den Straßen sowie Informationen zu zahlreichen anderen Gesundheitsbereichen geben.“
Auf den ersten Blick stellt Sarah einen innovativen Einsatz von Technologie zum Wohle der Allgemeinheit dar – eine KI-gestützte Assistentin, die jederzeit und überall maßgeschneiderte Ratschläge geben kann und potenziell Milliarden von Menschen helfen kann.
Doch bei näherer Betrachtung ist Sarah wohl ebenso sehr ein Produkt des Hypes und der Angst vor künstlicher Intelligenz (KI-FOMO) wie ein Werkzeug für positive Veränderungen.
Die künstliche Intelligenz, die zum Erstellen von Sarah verwendet wird, die generative KI, birgt ein unglaubliches Risiko. Bots, die auf dieser Technologie basieren, sind dafür bekannt, ungenaue, unvollständige, voreingenommene und im Allgemeinen schlechte Ratschläge zu geben.
Ein aktueller und berüchtigter Fall ist der inzwischen nicht mehr existierende Chatbot Tessa. Tessa wurde für die National Eating Disorders Association entwickelt und sollte die langjährige, von Menschen betriebene Hotline der Organisation ersetzen.
Doch nur wenige Tage vor der Veröffentlichung geriet Tessa außer Kontrolle. Der Bot begann, Menschen mit Essstörungen zu empfehlen, ihre Kalorienzufuhr zu beschränken, sich regelmäßig zu wiegen und sich strikte Ziele für die Gewichtsabnahme zu setzen. Glücklicherweise zog NEDA Tessa den Stecker und eine Krise konnte abgewendet werden – aber es zeigt, wie dringend geboten Vorsicht und Verantwortung beim Einsatz solcher Technologien sind.
Dieses beunruhigende Ergebnis unterstreicht die unvorhersehbare – und manchmal gefährliche – Natur der generativen KI. Es ist ein ernüchterndes Beispiel dafür, dass ohne strenge Sicherheitsvorkehrungen das Schadenspotenzial immens ist.
Vor diesem Hintergrund könnte man erwarten, dass große Organisationen des öffentlichen Gesundheitswesens besonders vorsichtig vorgehen. Bei der WHO und ihrem Chatbot scheint dies jedoch nicht der Fall zu sein. Obwohl sie sich der mit generativer KI verbundenen Risiken durchaus bewusst ist, hat sie Sarah der Öffentlichkeit zugänglich gemacht.
Der Haftungsausschluss der WHO lautet wie folgt:
WHO Sarah ist ein Prototyp, der Generative AI verwendet, um Gesundheitsnachrichten auf der Grundlage verfügbarer Informationen zu übermitteln. Die Antworten sind jedoch möglicherweise nicht immer genau, da sie auf Mustern und Wahrscheinlichkeiten in den verfügbaren Daten basieren. Der digitale Gesundheitsförderer ist nicht dazu bestimmt, medizinische Ratschläge zu erteilen. Die WHO übernimmt keine Verantwortung für Gesprächsinhalte, die von Generative AI erstellt werden.
Darüber hinaus repräsentieren oder umfassen die von Generative AI erstellten Gesprächsinhalte in keiner Weise die Ansichten oder Überzeugungen der WHO, und die WHO übernimmt keine Gewährleistung oder Garantie für die Richtigkeit der Gesprächsinhalte. Die genauesten Informationen finden Sie auf der Website der WHO. Indem Sie WHO Sarah verwenden, verstehen und akzeptieren Sie, dass Sie sich nicht auf die generierten Antworten als einzige Quelle der Wahrheit oder sachlicher Informationen oder als Ersatz für professionellen Rat verlassen sollten.
Kurz gesagt, die WHO scheint sich der Möglichkeit bewusst zu sein, dass Sarah überzeugende Falschinformationen weit verbreiten könnte, und dieser Haftungsausschluss ist ihr Ansatz, dieses Risiko zu mindern. Ganz unten auf der Webseite versteckt, teilt er im Wesentlichen mit: „Hier ist unser neues Tool. Sie sollten sich nicht ausschließlich darauf verlassen. Besuchen Sie lieber unsere Website.“
Allerdings schützt die WHO Sarah, indem sie stark eingeschränkte Antworten implementiert, um das Risiko von Fehlinformationen zu verringern. Dieser Ansatz ist jedoch nicht narrensicher. Jüngste Erkenntnisse deuten darauf hin, dass der Bot nicht immer aktuelle Informationen liefert.
Und selbst wenn die Sicherheitsvorkehrungen wirksam sind, können sie dazu führen, dass der Chatbot unpraktisch allgemein gehalten ist und keinen wertvollen Inhalt mehr enthält, was letztlich seine Nützlichkeit als dynamisches Informationstool einschränkt.
Welche Rolle spielt Sarah also? Wenn die WHO den Menschen ausdrücklich empfiehlt, ihre Website zu besuchen, um genaue Informationen zu erhalten, dann scheint es, dass Sarahs Einsatz eher aus Hype als aus Nutzen getrieben ist.
Offensichtlich ist die WHO eine äußerst wichtige Organisation, wenn es darum geht, die öffentliche Gesundheit auf globaler Ebene voranzubringen. Ich stelle ihren immensen Wert nicht in Frage. Aber ist dies die Verkörperung einer verantwortungsvollen KI? Sicherlich nicht! Dieses Szenario verkörpert die Bevorzugung von Geschwindigkeit gegenüber Sicherheit.
Dieser Ansatz darf nicht zur Norm werden, wenn es darum geht, generative KI in Wirtschaft und Gesellschaft zu integrieren. Der Einsatz ist einfach zu hoch.
Was passiert, wenn ein Chatbot einer angesehenen Institution während eines zukünftigen öffentlichen Gesundheitsnotstands beginnt, Fehlinformationen zu verbreiten, oder wenn er schädliche Ernährungsgewohnheiten fördert, ähnlich wie der zuvor erwähnte berüchtigte Tessa-Chatbot?
Angesichts der ehrgeizigen Einführung von Sarah kann man sich fragen, ob die Organisation ihren eigenen Rat beherzigt. Im Mai 2023 veröffentlichte die WHO eine Erklärung, in der sie die Notwendigkeit eines sicheren und ethischen Einsatzes von KI betonte. Vielleicht sollte sie diese Leitlinie noch einmal überdenken.
Die WHO betont erneut, wie wichtig es ist, bei der Konzeption, Entwicklung und Bereitstellung von KI im Gesundheitsbereich ethische Grundsätze und eine angemessene Governance anzuwenden, wie sie in den Leitlinien der WHO zu Ethik und Governance von KI im Gesundheitsbereich aufgeführt sind.
Die WHO hat sechs Kernprinzipien identifiziert: (1) Schutz der Autonomie; (2) Förderung des menschlichen Wohlbefindens, der menschlichen Sicherheit und des öffentlichen Interesses; (3) Gewährleistung von Transparenz, Erklärbarkeit und Verständlichkeit; (4) Förderung von Verantwortung und Rechenschaftspflicht; (5) Gewährleistung von Inklusivität und Gerechtigkeit; (6) Förderung einer KI, die reaktionsfähig und nachhaltig ist.
Es ist klar, dass die WHO ihre Entscheidungen an ihren eigenen Grundsätzen für den sicheren und ethischen Einsatz von KI ausrichten sollte, aber im Fall Sarah ist das nicht der Fall. Dies wirft kritische Fragen über ihre Fähigkeit auf, eine verantwortungsvolle KI-Revolution einzuleiten.
Wenn die WHO diese Technologie auf diese Weise nutzt, welche Chance besteht dann für einen umsichtigen Einsatz von KI in Kontexten, in denen finanzielle Anreize mit der Bedeutung der öffentlichen Gesundheit und Sicherheit konkurrieren oder diese in den Schatten stellen könnten?
Die Antwort auf diese Herausforderung erfordert verantwortungsvolle Führung. Wir brauchen Führungskräfte, die Menschen und ethische Überlegungen über den Hype um technologischen Fortschritt stellen. Nur durch verantwortungsvolle Führung können wir sicherstellen, dass die KI so eingesetzt wird, dass sie wirklich dem öffentlichen Interesse dient und gleichzeitig dem Gebot entspricht, keinen Schaden anzurichten.
Brian R. Spisak, PhD, ist ein unabhängiger Berater mit Schwerpunkt auf der digitalen Transformation im Gesundheitswesen. Er ist außerdem wissenschaftlicher Mitarbeiter bei der National Preparedness Leadership Initiative an der Harvard TH Chan School of Public Health, Fakultätsmitglied am American College of Healthcare Executives und Autor des Buches Computational Leadership.