Von MIKE MAGEE
OpenAI sagt, dass sein neuer GPT-4o „ein Schritt in Richtung einer viel natürlicheren Mensch-Computer-Interaktion“ sei und auf Ihre Anfrage „mit einer durchschnittlichen Verzögerung von 320 Millisekunden“ antworten könne, was einer menschlichen Reaktionszeit entspricht. Er kann also menschlich sprechen, aber kann er auch menschlich denken?
Das „Konzept der Kognition“ ist seit zwei Jahrzehnten ein Spielball der Wissenschaft, der sich vor allem auf „Darwins Behauptung konzentriert, dass andere Spezies über dieselben ‚geistigen Kräfte‘ wie der Mensch verfügen, wenn auch in unterschiedlichem Ausmaß.“ Aber wie steht es mit Maschinen, die von gentechnisch veränderter KI angetrieben werden? Können sie denken?
Der erste Wissenschaftler, der versuchte, das Wort „Kognition“ zu definieren, war Ulric Neisser, der 1967 im ersten Lehrbuch der kognitiven Psychologie schrieb: „Der Begriff ‚Kognition‘ bezieht sich auf alle Prozesse, durch die sensorische Eingaben umgewandelt, reduziert, verarbeitet, gespeichert, wiederhergestellt und verwendet werden. Er befasst sich mit diesen Prozessen, auch wenn sie ohne relevante Stimulation ablaufen …“
Das Wort Kognition leitet sich ab von „lateinisch cognoscere ‚kennenlernen, erkennen‘, von der assimilierten Form von com ‚zusammen‘ + gnoscere ‚wissen‘ …“
Wissen und Erkennen scheinen keine besonders brisanten Begriffe zu sein. Und doch kam es in den Jahren nach Neissers Veröffentlichung zu einer zunehmend intensiven und manchmal hitzigen Debatte zwischen Psychologen und Neurowissenschaftlern über die Definition von Kognition.
Der Kernpunkt der Meinungsverschiedenheit drehte sich (bis vor kurzem) um die Frage, ob die bei nichtmenschlichen Arten beobachteten Verhaltensweisen im menschlichen Sinne des Wortes „kognitiv“ sind. Der Diskurs der letzten Jahre hat sich in Randbereiche verlagert, in denen einige glauben, dass Pflanzen „denken“, obwohl sie kein Nervensystem besitzen, oder dass Ameisen, die in einer Kolonie miteinander kommunizieren, ein Beispiel für „verteilte Kognition“ sind.
Worüber sich die Wissenschaftler auf diesem Gebiet einig zu sein scheinen, ist, dass es keine passende Definition für Kognition gibt, die alle zufriedenstellt. Die meisten sind sich jedoch einig, dass der Begriff „Denken, Argumentieren, Wahrnehmen, Vorstellen und Erinnern“ umfasst. Tim Bayne PhD, ein Philosophieprofessor aus Melbourne, fügt hinzu, dass diese verschiedenen Qualitäten „systematisch neu miteinander kombiniert“ werden können müssen und nicht einfach durch einen provokativen Reiz ausgelöst werden dürfen.
Allen Newell PhD, Professor für Informatik an der Carnegie Mellon University, versuchte die Kluft zwischen Mensch und Maschine in Bezug auf die kognitiven Fähigkeiten zu überbrücken. 1958 veröffentlichte er eine Arbeit, in der er „die Beschreibung einer Theorie der Problemlösung anhand von Informationsprozessen vorschlug, die sich für den Einsatz in einem digitalen Computer eignen“.
Maschinen haben einen Vorteil gegenüber einigen Evolutionsbiologen, die glauben, dass wahre Erkenntnis das Aufnehmen neuer Informationen aus verschiedenen Quellen und deren Kombination auf neue und einzigartige Weise beinhaltet.
Entwicklungspsychologen haben durch die Beobachtung und Untersuchung der kognitiven Entwicklung bei Kleinkindern ihre ganz eigenen Erkenntnisse gewonnen. Was genau entwickelt sich in ihren jungen Gehirnen, und welche Unterschiede gibt es, die letztlich zur kognitiven Entwicklung von Erwachsenen führen? Und was ist mit der explosionsartigen Zunahme der Bildschirmzeit?
Kinderforscher, die mit KI-besessenen Jugendlichen und besorgten Eltern konfrontiert sind, gehen das Ganze aus der entgegengesetzten Richtung an. Laut der American Academy of Child and Adolescent Psychiatry nutzen mittlerweile 95 % der 13- bis 17-Jährigen soziale Medienplattformen, Maschinen sind also eine treibende Kraft in der Entwicklung. Die Maschine hat an Status und Einfluss gewonnen, vom Assistenztrainer an der Seitenlinie zum Teamkollegen auf dem Spielfeld.
Wissenschaftler geben zu: „Es ist unklar, wann ein Kind entwicklungsmäßig bereit ist, sich mit diesen Maschinen zu beschäftigen.“ Gleichzeitig müssen sie zugeben, dass die technologische Flutwelle kaum Alternativen lässt. „Umgekehrt ist es wahrscheinlich, dass ein vollständiger Schutz von Kindern vor diesen Technologien ihre Bereitschaft für eine technologische Welt hemmt.“
Bence P. Ölveczky, Evolutionsbiologe aus Harvard, ist sich ziemlich sicher, was Erkenntnis ist und was nicht. Er sagt, sie „erfordert Lernen, ist kein Reflex, hängt von intern erzeugter Gehirndynamik ab, benötigt Zugang zu gespeicherten Modellen und Beziehungen und beruht auf räumlichen Karten.“
Thomas Suddendorf PhD, ein Forschungspsychologe aus Neuseeland, der sich auf frühe Kindheit und Tierkognition spezialisiert hat, verfolgt einen flexibleren und differenzierteren Ansatz. Er sagt: „Die kognitive Psychologie unterscheidet zwischen absichtlichen und unabsichtlichen, bewussten und unbewussten, mühsamen und automatischen, langsamen und schnellen Prozessen (zum Beispiel), und Menschen setzen diese in unterschiedlichsten Bereichen ein, von der Voraussicht bis zur Kommunikation und von der Theory of Mind bis zur Moral.“
Das letzte Wort hierzu sollte wohl Descartes haben. Er glaubte, dass die Beherrschung von Gedanken und Gefühlen den Menschen von den Tieren unterscheidet, die er als „bloße Maschinen“ betrachtete.
Wäre er heute unter uns und würde den unersättlichen Datenhunger der generativen KI, ihre verborgenen Lernfähigkeiten, die Geschwindigkeit und Kraft ihres Aufruhrs sowie die menschliche Unsicherheit, wie man das Ding abschalten kann, miterleben, dann wäre sein Urteil über diese Maschinen vielleicht weniger abschätzig; eher vergleichbar mit dem von Mira Murati, der technischen Leiterin von OpenAI, die diesen Monat mit einem gewissen Understatement verkündete: „Wir blicken auf die Zukunft der Interaktion zwischen uns und Maschinen.“
Mike Magee MD ist Medizinhistoriker und regelmäßiger Mitarbeiter von THCB. Er ist der Autor von CODE BLUE: Inside the Medical Industrial Complex (Grove/2020).