Die Genauigkeit und Zuverlässigkeit von KI-Modellen hängt von der Qualität der Daten ab, auf denen sie trainiert werden. Dies darf nicht vergessen werden – insbesondere, wenn diese Tools im Gesundheitswesen eingesetzt werden, wo viel auf dem Spiel steht.
Bei der Entwicklung oder dem Einsatz neuer Technologien müssen Krankenhäuser und KI-Entwickler im Gesundheitswesen sorgfältig auf die Qualität der Trainingsdatensätze achten und aktive Schritte unternehmen, um Vorurteile abzumildern, sagte Divya Pathak, Chief Data Officer bei NYC Health + Hospitals, während eines virtuellen Panels durchgeführt von Reuters Events letzte Woche.
„Müll rein ist Müll raus“, erklärte sie.
Es gibt verschiedene Formen von Verzerrungen, die in Daten vorhanden sein können, bemerkte Pathak.
Beispielsweise kann es zu Verzerrungen kommen, wenn bestimmte Bevölkerungsgruppen in einem Datensatz über- oder unterrepräsentiert sind, da dies das Verständnis des Modells für die breitere Bevölkerung verzerrt. Verzerrungen könnten auch durch historische Ungleichheiten oder systemische Diskriminierungen in den Daten entstehen. Darüber hinaus könnte es algorithmische Verzerrungen geben. Diese spiegeln in den Algorithmen selbst inhärente Verzerrungen wider, die aufgrund des Design- oder Trainingsprozesses des Modells bestimmte Gruppen oder Ergebnisse unverhältnismäßig begünstigen können.
Eine der wichtigsten Maßnahmen, die Krankenhäuser und KI-Entwickler ergreifen können, um diese Verzerrungen abzumildern, besteht darin, sich die an den Trainingsdaten beteiligte Bevölkerung anzusehen und sicherzustellen, dass sie mit der Bevölkerung übereinstimmt, für die der Algorithmus verwendet wird, sagte Pathak.
Ihr Gesundheitssystem würde beispielsweise keinen Algorithmus verwenden, der auf Patientendaten von Menschen im ländlichen Nebraska trainiert wurde. Die demografischen Gegebenheiten in einem ländlichen Gebiet und in New York City seien zu unterschiedlich, als dass das Modell zuverlässig funktionieren könnte, erklärte sie.
Pathak ermutigte Organisationen, die KI-Modelle für das Gesundheitswesen entwickeln, Datenvalidierungsteams zu bilden, die Verzerrungen erkennen können, bevor ein Datensatz zum Trainieren von Algorithmen verwendet wird.
Sie wies auch darauf hin, dass Voreingenommenheit nicht nur ein Problem ist, das verschwindet, nachdem ein qualitativ hochwertiger Trainingsdatensatz erstellt wurde.
„Tatsächlich gibt es im gesamten KI-Lebenszyklus Voreingenommenheit – von der Ideenfindung bis zur Bereitstellung und Bewertung der Ergebnisse. „In jeder Phase der KI-Entwicklung die richtigen Leitplanken, Frameworks und Checklisten zu haben, ist der Schlüssel, um sicherzustellen, dass wir so viele Vorurteile wie möglich beseitigen können, die sich über diesen Lebenszyklus hinweg ausbreiten“, bemerkte Pathak.
Sie fügte hinzu, dass sie nicht glaube, dass Voreingenommenheit vollständig beseitigt werden könne.
Menschen sind voreingenommen und sie sind diejenigen, die Algorithmen entwerfen und entscheiden, wie diese Modelle am besten eingesetzt werden. Krankenhäuser sollten darauf vorbereitet sein, Verzerrungen so weit wie möglich abzumildern – aber sie sollten nicht die Erwartung haben, einen völlig verzerrungsfreien Algorithmus zu erhalten, erklärte Pathak.
Foto: Filograph, Getty Images