KI-generierte Bilder können verwendet werden, um Sie zu der Annahme zu verleiten, dass gefälschte Inhalte echt sind. Aus diesem Grund hat der ChatGPT-Entwickler OpenAI ein Tool entwickelt, das vorhersagen soll, ob ein Bild mit seinem eigenen DALL-E 3-Bildgenerator erstellt wurde oder nicht. Die Erfolgsquote des Bilderkennungsklassifikators hängt jedoch davon ab, ob und wie das Bild geändert wurde.
Am Dienstag gewährte OpenAI der ersten Gruppe von Testern Zugriff auf sein neues Bilderkennungstool. Ziel ist es, unabhängige Forscher zu beauftragen, die Wirksamkeit des Tools zu bewerten, seinen Nutzen in der realen Welt zu analysieren, zu bestimmen, wie es verwendet werden könnte, und die Faktoren zu untersuchen, die KI-generierte Inhalte bestimmen. Interessierte Forscher können den Zugang auf der Webseite des DALL-E Detection Classifier Access Program beantragen.
OpenAI hat das Tool intern getestet und die bisherigen Ergebnisse sind in mancher Hinsicht vielversprechend, in anderer Hinsicht enttäuschend. Bei der Analyse der von DALL-E 3 generierten Bilder identifizierte das Tool sie in etwa 98 % der Fälle korrekt. Darüber hinaus identifizierte das Tool bei der Analyse von Bildern, die nicht mit DALL-E 3 erstellt wurden, diese nur in etwa 0,5 % der Fälle fälschlicherweise als mit DALL-E 3 erstellt.
Laut OpenAI hatten auch geringfügige Änderungen an einem Bild kaum Auswirkungen. Interne Tester konnten ein mit DALL-E 3 erstelltes Bild komprimieren, zuschneiden und Änderungen in der Sättigung anwenden, und das Tool zeigte eine geringere, aber immer noch relativ hohe Erfolgsquote. So weit, ist es gut.
Außerdem: So verwenden Sie DALL-E 3 in ChatGPT
Leider schnitt das Tool bei Bildern, die größeren Änderungen unterzogen wurden, nicht so gut ab. In seinem Blog-Beitrag gab OpenAI keine Auskunft über die Erfolgsquote in diesen Fällen, außer dass es lediglich darauf hinweist, dass „andere Modifikationen jedoch die Leistung beeinträchtigen können“.
Die Wirksamkeit des Tools ließ unter Bedingungen wie der Änderung des Farbtons eines Bildes nach, sagte der OpenAI-Forscher Sandhini Agarwal gegenüber dem Wall Street Journal (Abonnement erforderlich). OpenAI hofft, diese Art von Problemen zu beheben, indem es externen Testern Zugriff auf das Tool gewährt, fügte Agarwal hinzu.
Interne Tests stellten das Tool auch vor die Herausforderung, Bilder zu analysieren, die mit KI-Modellen anderer Unternehmen erstellt wurden. In diesen Fällen konnte das Tool von OpenAI nur 5 bis 10 % der Bilder dieser externen Modelle identifizieren. Auch Änderungen an solchen Bildern, etwa das Ändern des Farbtons, führten zu einem starken Rückgang der Wirksamkeit, sagte Agarwal dem Journal. Auch dies ist eine weitere Einschränkung, die OpenAI durch weitere Tests beheben möchte.
Ein Pluspunkt für das Erkennungstool von OpenAI: Es ist nicht auf Wasserzeichen angewiesen. Andere Unternehmen verwenden Wasserzeichen, um anzuzeigen, dass ein Bild von ihren eigenen KI-Tools generiert wurde. Diese können jedoch relativ einfach entfernt werden, wodurch sie unwirksam werden.
Obwohl KI-generierte Bilder immer eine potenzielle Bedrohung darstellen, sind sie im Wahljahr besonders problematisch. Feindliche Parteien innerhalb und außerhalb eines Landes können solche Bilder leicht nutzen, um politische Kandidaten oder Anliegen in ein negatives Licht zu rücken. Angesichts der ständigen Fortschritte bei KI-Bildgeneratoren wird es immer schwieriger herauszufinden, was echt und was gefälscht ist.
Außerdem: Die besten KI-Bildgeneratoren, die Sie derzeit ausprobieren können
Angesichts dieser Bedrohung haben OpenAI und Microsoft einen Societal Resilience Fund in Höhe von 2 Millionen US-Dollar ins Leben gerufen, um die KI-Bildung und -Kompetenz bei Wählern und gefährdeten Gemeinschaften zu verbessern. Angesichts der Tatsache, dass 2 Milliarden Menschen auf der ganzen Welt in diesem Jahr bereits an demokratischen Wahlen teilgenommen haben oder noch wählen werden, besteht das Ziel darin, sicherzustellen, dass Einzelpersonen sich besser in digitalen Informationen zurechtfinden und zuverlässige Ressourcen finden können.
OpenAI gab außerdem bekannt, dass es dem Lenkungsausschuss von C2PA (Coalition for Content Provenance and Authenticity) beitritt. C2PA dient als Nachweis dafür, dass Inhalte aus einer bestimmten Quelle stammen und ist ein Standard für die Zertifizierung digitaler Inhalte, der von Softwareanbietern, Kameraherstellern und Online-Plattformen übernommen wird. Laut OpenAI sind C2PA-Metadaten in allen in DALL-E 3 und ChatGPT erstellten und bearbeiteten Bildern enthalten und werden bald in Videos erscheinen, die mit dem Sora-Videogenerator von OpenAI erstellt wurden.