Google hat sich diese Woche für einen weiteren peinlichen KI-Fehler entschuldigt (oder war kurz davor, sich zu entschuldigen), ein bildgenerierendes Modell, das Bildern Vielfalt verlieh, ohne Rücksicht auf den historischen Kontext. Während das zugrunde liegende Problem vollkommen verständlich ist, wirft Google dem Modell vor, „überempfindlich“ zu sein. Aber das Modell hat sich nicht von selbst gemacht, Leute.
Bei dem betreffenden KI-System handelt es sich um Gemini, die Flaggschiff-Konversations-KI-Plattform des Unternehmens, die auf Nachfrage eine Version des Imagen-2-Modells nutzt, um Bilder auf Abruf zu erstellen.
In letzter Zeit stellten die Leute jedoch fest, dass die Aufforderung, Bilder bestimmter historischer Umstände oder Personen zu erstellen, zu lächerlichen Ergebnissen führte. Beispielsweise wurden die Gründerväter, von denen wir wissen, dass sie weiße Sklavenhalter waren, als eine multikulturelle Gruppe dargestellt, zu der auch farbige Menschen gehörten.
Dieses peinliche und leicht reproduzierbare Problem wurde von Online-Kommentatoren schnell verspottet. Erwartungsgemäß wurde es auch in die laufende Debatte über Diversität, Gerechtigkeit und Inklusion (derzeit auf einem lokalen Reputationsminimum) eingebunden und von Experten als Beweis dafür aufgefasst, dass der Woke-Mind-Virus weiter in den bereits liberalen Technologiesektor eindringt.
„DEI ist verrückt geworden“, riefen auffällig besorgte Bürger. Das ist Bidens Amerika! Google ist eine „ideologische Echokammer“, ein Stalking Horse für die Linke! (Man muss sagen, dass auch die Linke von diesem seltsamen Phänomen angemessen beunruhigt war.)
Aber wie jeder, der sich mit der Technik auskennt, Ihnen sagen kann und wie Google heute in seinem eher dämlichen kleinen Entschuldigungsbeitrag erklärt, war dieses Problem das Ergebnis einer durchaus vernünftigen Problemumgehung für systemische Verzerrungen in Trainingsdaten.
Angenommen, Sie möchten Gemini verwenden, um eine Marketingkampagne zu erstellen, und bitten darum, 10 Bilder von „einer Person, die mit einem Hund in einem Park spazieren geht“ zu erstellen. Da Sie die Art der Person, des Hundes oder des Parks nicht angeben, ist es die Entscheidung des Händlers – das generative Modell gibt das aus, was ihm am besten bekannt ist. Und in vielen Fällen ist dies kein Produkt der Realität, sondern der Trainingsdaten, in denen alle möglichen Vorurteile verankert sein können.
Welche Arten von Menschen, und auch Hunde und Parks, kommen in den Tausenden relevanten Bildern, die das Model aufgenommen hat, am häufigsten vor? Tatsache ist, dass weiße Menschen in vielen dieser Bildsammlungen (Archivbilder, lizenzfreie Fotografie usw.) überrepräsentiert sind und das Modell daher in vielen Fällen standardmäßig auf weiße Menschen zurückgreift, wenn Sie dies nicht tun. t spezifizieren.
Das ist nur ein Artefakt der Trainingsdaten, aber wie Google betont: „Da unsere Nutzer aus der ganzen Welt kommen, möchten wir, dass es für alle gut funktioniert.“ Wenn Sie nach einem Bild von Fußballspielern oder jemandem, der mit einem Hund spazieren geht, fragen, möchten Sie möglicherweise eine Reihe von Personen erhalten. Sie möchten wahrscheinlich nicht nur Bilder von Menschen nur einer bestimmten ethnischen Zugehörigkeit (oder eines anderen Merkmals) erhalten.“
Es ist nichts Falsches daran, sich ein Bild von einem Weißen zu machen, der mit einem Golden Retriever in einem Vorstadtpark spazieren geht. Aber wenn Sie nach 10 fragen und das sind alles Weiße, die in Vorstadtparks mit Goldmünzen spazieren gehen? Und Sie leben in Marokko, wo die Menschen, Hunde und Parks alle anders aussehen? Das ist einfach kein wünschenswertes Ergebnis. Wenn jemand kein Merkmal spezifiziert, sollte sich das Modell für Vielfalt und nicht für Homogenität entscheiden, ungeachtet dessen, wie seine Trainingsdaten es beeinflussen könnten.
Dies ist ein häufiges Problem bei allen Arten generativer Medien. Und es gibt keine einfache Lösung. Aber in Fällen, die besonders häufig, sensibel oder beides sind, fügen Unternehmen wie Google, OpenAI, Anthropic usw. unsichtbar zusätzliche Anweisungen für das Modell hinzu.
Ich kann nicht genug betonen, wie alltäglich diese Art impliziter Anweisungen ist. Das gesamte LLM-Ökosystem basiert auf impliziten Anweisungen – Systemaufforderungen, wie sie manchmal genannt werden, in denen dem Modell vor jedem Gespräch Dinge wie „seien Sie prägnant“, „schwören Sie nicht“ und andere Richtlinien gegeben werden. Wenn Sie nach einem Witz fragen, bekommen Sie keinen rassistischen Witz – denn obwohl das Model Tausende davon geschluckt hat, wurde es, wie die meisten von uns, auch darauf trainiert, diese nicht zu erzählen. Dabei handelt es sich nicht um eine geheime Agenda (auch wenn sie mehr Transparenz vertragen könnte), sondern um eine Infrastruktur.
Der Fehler bei Googles Modell bestand darin, dass es keine impliziten Anweisungen für Situationen gab, in denen der historische Kontext wichtig war. Während also eine Aufforderung wie „eine Person, die mit einem Hund in einem Park spazieren geht“ durch den stillen Zusatz „die Person hat ein zufälliges Geschlecht und eine zufällige ethnische Zugehörigkeit“ oder was auch immer sie sagen, verbessert wird, ist dies definitiv nicht der Fall dadurch verbessert.
Wie der Google-SVP Prabhakar Raghavan es ausdrückte:
Erstens haben wir bei unserer Optimierung, um sicherzustellen, dass Gemini eine Reihe von Personen anzeigt, Fälle nicht berücksichtigt, in denen eindeutig keine Reihe angezeigt werden sollte. Und zweitens wurde das Modell mit der Zeit viel vorsichtiger, als wir beabsichtigt hatten, und weigerte sich, bestimmte Eingabeaufforderungen vollständig zu beantworten – und interpretierte einige sehr harmlose Eingabeaufforderungen fälschlicherweise als sensibel.
Diese beiden Dinge führten dazu, dass das Modell in einigen Fällen überkompensierte und in anderen zu konservativ war, was zu peinlichen und falschen Bildern führte.
Ich weiß, wie schwer es manchmal ist, „Entschuldigung“ zu sagen, deshalb verzeihe ich Raghavan, dass er kurz davor aufgehört hat. Wichtiger ist eine interessante Formulierung darin: „Das Modell wurde viel vorsichtiger, als wir beabsichtigt hatten.“
Wie würde nun aus einem Model etwas „werden“? Es ist Software. Jemand – Tausende von Google-Ingenieuren – hat es gebaut, getestet und iteriert. Jemand hat die impliziten Anweisungen geschrieben, die einige Antworten verbesserten und andere zum komischen Scheitern brachten. Wenn dies fehlschlug und jemand die vollständige Eingabeaufforderung hätte überprüfen können, hätte er wahrscheinlich festgestellt, dass das Google-Team einen Fehler gemacht hat.
Google macht das Modell dafür verantwortlich, dass es zu etwas „geworden“ ist, wozu es nicht „beabsichtigt“ war. Aber sie haben das Modell gemacht! Es ist, als hätten sie ein Glas zerbrochen, und anstatt zu sagen: „Wir haben es fallen lassen“, sagen sie: „Es ist heruntergefallen.“ (Ich habe das getan.)
Fehler dieser Modelle sind sicherlich unvermeidlich. Sie halluzinieren, sie spiegeln Vorurteile wider, sie verhalten sich auf unerwartete Weise. Aber die Verantwortung für diese Fehler liegt nicht bei den Modellen, sondern bei den Menschen, die sie gemacht haben. Heute ist das Google. Morgen wird es OpenAI sein. Am nächsten Tag und wahrscheinlich für ein paar Monate am Stück wird es X.AI sein.
Diese Unternehmen haben ein starkes Interesse daran, Sie davon zu überzeugen, dass KI ihre eigenen Fehler macht. Lass es nicht zu.