OpenAI geht neue Wege, als der KI-Riese sein erstes Text-zu-Video-Modell namens Sora vorgestellt hat, das schockierend realistische Inhalte erstellen kann.
Wir haben uns gefragt, wann das Unternehmen endlich seine eigene Video-Engine herausbringen würde, da so viele seiner Konkurrenten, von Stability AI bis Google, ihnen haushoch voraus waren. Vielleicht wollte OpenAI die Dinge vor einem ordnungsgemäßen Start genau richtig machen. Bei diesem Tempo könnte die Qualität seiner Ergebnisse die seiner Zeitgenossen in den Schatten stellen. Laut der offiziellen Seite kann Sora aus einer einzigen Textaufforderung „realistische und fantasievolle Szenen“ generieren; ähnlich wie andere Text-zu-Video-KI-Modelle. Der Unterschied zu diesem Motor liegt in der Technologie dahinter.
Lebensechte Inhalte
Open AI behauptet, dass seine künstliche Intelligenz verstehen kann, wie Menschen und Objekte „in der physischen Welt existieren“. Dies gibt Sora die Möglichkeit, Szenen mit mehreren Personen, unterschiedlichen Bewegungsarten, Gesichtsausdrücken, Texturen und Objekten mit hohem Detailreichtum zu erstellen. Generierten Videos fehlt der plastische Look oder die alptraumhaften Formen, die man bei anderen KI-Inhalten sieht – größtenteils, aber dazu später mehr.
Sora ist außerdem multimodular. Berichten zufolge können Benutzer ein Standbild hochladen, das als Grundlage für ein Video dient. Der Inhalt des Bildes wird animiert, wobei den kleinen Details viel Aufmerksamkeit geschenkt wird. Es kann sogar ein bereits vorhandenes Video aufnehmen und „erweitern oder fehlende Frames ergänzen“.
Aufforderung: Ein Wurf Golden Retriever-Welpen spielt im Schnee. Ihre Köpfe ragen bedeckt aus dem Schnee. pic.twitter.com/G1qhJRV9tg 15. Februar 2024
Beispielclips finden Sie auf der Website von OpenAI und auf X (der Plattform, die früher als Twitter bekannt war). Einer unserer Favoriten zeigt eine Gruppe Welpen, die im Schnee spielen. Wenn Sie genau hinschauen, können Sie erkennen, dass ihr Fell und der Schnee auf ihrer Schnauze eine auffallend lebensechte Qualität haben. Ein weiterer toller Clip zeigt eine Victoria-gekrönte Taube, die wie ein echter Vogel herumhüpft.
In Arbeit
So beeindruckend diese beiden Videos auch sein mögen, Sora ist nicht perfekt. OpenAI gibt zu, dass sein „Modell Schwächen hat“. Es kann schwierig sein, die Physik eines Objekts zu simulieren, links von rechts zu verwechseln und „Instanzen von Ursache und Wirkung“ falsch zu verstehen. Sie können einen KI-Charakter in einen Keks beißen lassen, aber dem Keks fehlt eine Bissspur.
Es macht auch viele seltsame Fehler. Eines der lustigsten Missgeschicke besteht darin, dass eine Gruppe von Archäologen ein großes Stück Papier ausgräbt, das sich dann in einen Stuhl verwandelt und schließlich als zerknittertes Stück Plastik endet. Auch mit Worten scheint die KI Probleme zu haben. „Otter“ wird fälschlicherweise als „Oter“ geschrieben und „Land Rover“ ist jetzt „Danover“.
Sogar die Sora-Fehler sind faszinierend pic.twitter.com/OvPSbaa0L9 15. Februar 2024
In Zukunft wird das Unternehmen mit seinen „Red Teamern“, einer Gruppe von Branchenexperten, zusammenarbeiten, um „kritische Bereiche auf Schäden oder Risiken zu bewerten“. Sie möchten sicherstellen, dass Sora keine falschen Informationen oder hasserfüllten Inhalte generiert oder voreingenommen ist. Darüber hinaus wird OpenAI einen Textklassifikator implementieren, um Eingabeaufforderungen abzulehnen, die gegen ihre Richtlinien verstoßen. Dazu gehören unter anderem Eingaben, in denen sexuelle Inhalte, gewalttätige Videos und Porträts von Prominenten angefordert werden.
Wann Sora offiziell starten wird, ist noch nicht bekannt. Wir haben um Informationen zur Veröffentlichung gebeten. Diese Geschichte wird zu einem späteren Zeitpunkt aktualisiert. Schauen Sie sich in der Zwischenzeit die Liste der besten KI-Videoeditoren von TechRadar für 2024 an.