Es besteht allgemeine Übereinstimmung darüber, dass generative künstliche Intelligenz (KI)-Tools Menschen helfen können, Zeit zu sparen und die Produktivität zu steigern. Doch während diese Technologien es einfach machen, Code auszuführen oder schnell Berichte zu erstellen, kann die Backend-Arbeit zum Erstellen und Aufrechterhalten großer Sprachmodelle (LLMs) mehr menschliche Arbeit erfordern als der Aufwand, der im Vorfeld eingespart wird. Außerdem erfordern viele Aufgaben möglicherweise nicht unbedingt die Feuerkraft der KI, wenn eine Standardautomatisierung ausreicht.
Das ist die Aussage von Peter Cappelli, Managementprofessor an der Wharton School der University of Pennsylvania, der kürzlich bei einer MIT-Veranstaltung sprach. Kumuliert betrachtet könnten generative KI und LLMs den Menschen mehr Arbeit bescheren, als sie ihnen abzunehmen. LLMs sind kompliziert zu implementieren und „es stellt sich heraus, dass es viele Dinge gibt, die generative KI tun könnte, die wir eigentlich nicht tun müssen“, sagte Cappelli.
Außerdem: Routinemäßige Automatisierung war gestern: KI bringt mehr Intelligenz in die Softwareentwicklung
Während KI als bahnbrechende Technologie gepriesen wird, „sind Prognosen von der Technologieseite oft spektakulär falsch“, betonte er. „Tatsächlich haben sich die meisten Technologieprognosen zur Arbeit im Laufe der Zeit als falsch erwiesen.“ Er sagte, die bevorstehende Welle von fahrerlosen Lastwagen und Autos, die für 2018 vorhergesagt wurde, sei ein Beispiel für rosige Prognosen, die sich bisher nicht bewahrheitet haben.
Große Visionen einer technologiegetriebenen Transformation verlieren sich oft in den Details. Befürworter autonomer Fahrzeuge sprachen sich dafür aus, was „fahrerlose Lkw leisten könnten, statt dafür, was getan werden müsste und was erforderlich ist, um die Vorschriften einzuhalten – die Versicherungsfragen, die Softwarefragen und all diese Fragen.“ Außerdem fügte Cappelli hinzu: „Wenn man sich ihre tatsächliche Arbeit ansieht, tun Lkw-Fahrer viele andere Dinge als nur Lkw zu fahren, selbst im Fernverkehr.“
Eine ähnliche Analogie lässt sich für den Einsatz generativer KI in der Softwareentwicklung und im Geschäftsleben ziehen. Programmierer „verbringen den Großteil ihrer Zeit mit Dingen, die nichts mit Computerprogrammierung zu tun haben“, sagte er. „Sie sprechen mit Leuten, sie verhandeln Budgets und all diese Dinge. Selbst auf der Programmierseite ist nicht alles davon tatsächlich Programmierung.“
Außerdem: Agile Entwicklung kann die Leistungsfähigkeit generativer KI freisetzen – so geht’s
Die technologischen Möglichkeiten der Innovation sind faszinierend, aber die Umsetzung wird durch die Realitäten vor Ort oft verlangsamt. Im Fall der generativen KI können Arbeitsersparnisse und Produktivitätsvorteile durch den Aufwand an Backend-Arbeit, der zum Erstellen und Aufrechterhalten von LLMs und Algorithmen erforderlich ist, aufgewogen werden.
Sowohl generative als auch operative KI „generieren neue Arbeit“, betonte Cappelli. „Die Leute müssen Datenbanken verwalten, sie müssen Materialien organisieren, sie müssen diese Probleme von konkurrierenden Berichten, Gültigkeit und dergleichen lösen. Es wird viele neue Aufgaben generieren, und jemand wird sie erledigen müssen.“
Außerdem: Generative KI ist die Technologie, bei der die IT den größten Druck verspürt, sie zu nutzen
Er sagte, dass die operative KI, die es schon seit einiger Zeit gibt, noch in der Entwicklung sei. „Maschinelles Lernen mit Zahlen wurde bisher deutlich untergenutzt. Ein Teil davon waren Fragen des Datenbankmanagements. Es erfordert viel Aufwand, die Daten zusammenzuführen, damit man sie analysieren kann. Daten befinden sich oft in verschiedenen Silos in verschiedenen Organisationen, was politisch und technisch schwierig zusammenzuführen ist.“
Cappelli nennt mehrere Probleme bei der Entwicklung hin zu generativer KI und LLMs, die überwunden werden müssen:
Die Lösung eines Problems/einer Chance mit generativer KI/LLMs könnte übertrieben sein – „Es gibt viele Dinge, die große Sprachmodelle tun können, die wahrscheinlich nicht getan werden müssen“, erklärte er. Beispielsweise wird Geschäftskorrespondenz als Anwendungsfall angesehen, aber die meiste Arbeit wird bereits über Formbriefe und Routineautomatisierung erledigt. Hinzu kommt die Tatsache, dass „ein Formbrief bereits von Anwälten freigegeben wurde und alles, was von großen Sprachmodellen geschrieben wird, wahrscheinlich von einem Anwalt gelesen werden muss. Und das wird keine Zeitersparnis bringen.“ Es wird teurer werden, Routineautomatisierung durch KI zu ersetzen – „Es ist nicht so klar, ob große Sprachmodelle so billig sein werden wie jetzt“, warnte Cappelli. „Wenn mehr Leute sie verwenden, muss der Computerplatz vergrößert werden, allein der Strombedarf ist groß. Jemand muss dafür bezahlen.“ Es werden Menschen benötigt, um die Ergebnisse generativer KI zu validieren – Berichte oder Ergebnisse generativer KI mögen für relativ einfache Dinge wie E-Mails in Ordnung sein. Aber für komplexere Berichte oder Vorhaben muss überprüft werden, ob alles korrekt ist. „Wenn Sie es für etwas Wichtiges verwenden, sollten Sie sicher sein, dass es richtig ist. Und woher wissen Sie, ob es richtig ist? Nun, es ist hilfreich, einen Experten zu haben; jemanden, der unabhängig validieren kann und etwas über das Thema weiß. Der nach Halluzinationen oder skurrilen Ergebnissen sucht und sicherstellt, dass es auf dem neuesten Stand ist. Manche Leute sagen, man könnte andere große Sprachmodelle verwenden, um das zu beurteilen, aber es ist eher ein Zuverlässigkeits- als ein Gültigkeitsproblem. Wir müssen es irgendwie überprüfen, und das ist nicht unbedingt einfach oder billig.“ Generative KI wird uns in zu vielen und manchmal widersprüchlichen Informationen ertränken – „Weil es ziemlich einfach ist, Berichte und Ausgaben zu generieren, werden Sie mehr Antworten erhalten“, sagte Cappelli. Außerdem kann ein LLM sogar unterschiedliche Antworten auf dieselbe Eingabe liefern. „Das ist ein Zuverlässigkeitsproblem – was würden Sie mit Ihrem Bericht machen? Sie generieren einen, der Ihre Abteilung besser aussehen lässt, und geben ihn dem Chef.“ Außerdem warnte er: „Selbst die Leute, die diese Modelle bauen, können Ihnen diese Antworten nicht eindeutig geben. Wollen wir die Leute damit überhäufen, die Unterschiede in diesen Ergebnissen zu beurteilen?“ Menschen treffen Entscheidungen immer noch lieber auf der Grundlage von Bauchgefühlen oder persönlichen Vorlieben – dieses Problem wird für Maschinen schwer zu überwinden sein. Unternehmen investieren möglicherweise große Summen in den Aufbau und die Verwaltung von LLMs für Rollen, beispielsweise für die Auswahl von Bewerbern. Aber eine Studie nach der anderen zeigt, dass Menschen eher Leute einstellen, die ihnen gefallen, als das, was die Analytiker herausstellen, sagte Cappelli. „Maschinelles Lernen könnte das bereits für uns tun. Wenn Sie das Modell bauen würden, würden Sie feststellen, dass Ihre Linienmanager, die bereits die Entscheidungen treffen, es nicht verwenden möchten. Ein weiteres Beispiel dafür, dass ‚wenn Sie es bauen, werden sie nicht unbedingt kommen.‘“
Cappelli schlug vor, dass die nützlichste generative KI-Anwendung in naher Zukunft darin besteht, Datenspeicher zu durchforsten und Analysen zur Unterstützung von Entscheidungsprozessen bereitzustellen. „Wir bereinigen derzeit Daten, die wir selbst nicht analysieren konnten“, sagte er. „Das wird das Unternehmen viel besser können als wir“, sagte er. Neben der Datenbankverwaltung „muss sich jemand um Leitplanken und Probleme mit der Datenverschmutzung kümmern.“