Von Barry Smith.
Menschliche kognitive Fähigkeiten werden nicht nur durch unsere Gene bestimmt, sondern auch durch die verschiedenen und aufeinander folgenden Umgebungen (Nischen), in denen wir mit anderen Menschen leben. Diese Fähigkeiten werden in dem erworben, was wir „Gemeinschaftsnischen" nennen könnten, wobei die betreffende Gemeinschaft aus nur zwei Mitgliedern (Mutter und Kinder) oder aus vielen, vielen Mitgliedern bestehen kann, wie etwa einer Fußballmannschaft oder dem Produktionsteam für ein Taylor-Swift-Video.
Wenn man Teil einer solchen Gemeinschaft wird, bringt dies vielfältige Vorteile mit sich. Es kann Spezialisierung ermöglichen, Coaching, Mentorschaft, Wettbewerb mit Gleichgesinnten (manchmal, wie in der Welt des Schachs oder der Leichtathletik, Meisterschaften auf vielen Ebenen). Vor allem kann es einen in eine Position bringen, in der die eigene Arbeit Kritik ausgesetzt ist. Und wenn man schlechte Arbeit leistet, kann dies Scham und Peinlichkeit mit sich bringen; möglicherweise auch die Demütigung, entlassen zu werden.
Wie sieht es nun aber mit der Arbeit der sogenannten „generativen KI" aus? Man betrachte den neuen (25. September 2025) Bericht der Harvard Business Review mit dem Titel „AI-Generated 'Workslop' Is Destroying Productivity" (1). Hier wird „Workslop" definiert als „KI-generierte Arbeitsinhalte, die sich als gute Arbeit ausgeben, denen aber die Substanz fehlt, um eine gegebene Aufgabe sinnvoll voranzubringen." Dieselbe Studie berichtet, dass „95 Prozent der Organisationen keine messbare Rendite ihrer Investition in diese Technologien sehen", und dass von 1.150 in den USA ansässigen Vollzeitbeschäftigten aus verschiedenen Branchen „40 Prozent berichten, im letzten Monat Workslop erhalten zu haben". Und warum ist das so? Weil Large Language Models (LLMs) und andere KI-Werkzeuge keine Fähigkeit haben, Scham und Peinlichkeit zu empfinden, die Workslop in menschlichen Teams stark reduziert.
LLMs werden tatsächlich oft nützliche Antworten auf unsere Eingaben generieren; und dies ist eine Fähigkeit der Maschine. Aber ist es die Fähigkeit, die wir Menschen „Intelligenz" nennen? Man betrachte in diesem Zusammenhang den Klugen Hans, ein Pferd, das zu seiner Zeit eine Zirkussensation war aufgrund seiner Fähigkeit, arithmetische Probleme zu lösen. Es stellte sich jedoch heraus, dass seine scheinbare arithmetische Fähigkeit tatsächlich ein Schwindel war. Das Pferd war lediglich darauf trainiert worden, als Reaktion auf diskrete Signale seines Herrn mit dem Huf auf den Boden zu klopfen und dann wieder damit aufzuhören. Das aus Pferd und Herr gebildete Team konnte tatsächlich die Fähigkeit arithmetischer Intelligenz zeigen. Aber das Pferd selbst zeigte die viel schwächere Fähigkeit, für die es trainiert worden war, nämlich auf Eingaben seines Herrn zu reagieren.
Wir können unproblematisch bestätigen, dass welche Fähigkeit auch immer von LLMs gezeigt wird, es eine Fähigkeit ist, die aus den Beziehungen zwischen menschlichen Akteuren und algorithmischen Geräten entsteht – somit ist es in gewissem Sinne eine Teamfähigkeit – etwas, das auch für die Intelligenz menschlicher Wesen gilt, wie Newton („auf den Schultern von Giganten stehend") es erkannte.
Aber LLMs verfügen über keine Intelligenz (2). Vielmehr haben sie eine Fähigkeit, bestimmte Arten menschlicher Intelligenz zu simulieren. Können sie dann das erreichen, was „Artificial General Intelligence (AGI)" genannt wird, von IBM definiert als eine Stufe, „auf der ein KI-System die menschlichen kognitiven Fähigkeiten bei jeder Aufgabe erreichen oder übertreffen kann" (3)?
Man betrachte zum Beispiel die Aufgabe, eine Baugenehmigung für die Errichtung einer neuen Wohnsiedlung in Budapest zu erhalten. Man sollte dies nicht allein versuchen. Vielmehr wird man Teams bilden oder sich ihnen anschließen müssen, mit Anwälten, Banken, Architekten, Politikern und so weiter, um mit anderen Teams im Építési és Közlekedési Minisztérium und im Fővárosi Önkormányzat Polgármesteri Hivatala und in der zuständigen Lakásgazdálkodási Osztály zu verhandeln.
Eines Tages, da sind sie sich sicher, werden wir eine KI haben, die ihre kognitiven Fähigkeiten auch bei diesen Aufgaben zeigen kann. Und Pferde werden Flügel bekommen.
Dieser Beitrag erschien zuerst bei globkult.
Barry Smith ist ein englischer Mathematiker und Philosoph, mit den Forschungsschwerpunkten formale Ontologie, medizinische Bioinformatik und Theorie der künstlichen Intelligenz. Er war der Herausgeber der Zeitschrift The Monist: An International Journal of General Philosophical Inquiry, zu dessen Beirat er noch heute gehört. Er ist einer der am häufigsten zitierten lebenden Philosophen auf Google Scholar.
Anmerkungen:
(1) https://hbr.org/2025/09/ai-generated-workslop-is-destroyingproductivity
(2) Jobst Landgrebe und Barry Smith, Why Machines Will Never Rule the World (2. Auflage), Abingdon, UK: Routledge (2025).
(3) https://www.ibm.com/think/topics/artificial-general-intelligence (Hervorhebung hinzugefügt).
Einige der Kommentatoren haben von der KI (im Sinne der aktuell diskutierten künstlichen neuronalen Netze) eine völlig falsche Vorstellung. Die KI durchsucht nicht in Windeseile Datenbanken, und sie enthält auch keine von Programmierern erdachten Algorithmen. Die KI ist eine Art assoziativer Speicher, der, wenn er mit Eingaben stimuliert wird, sich an damit zusammenhängende Informationen „erinnert“. Ein bisschen so wie ein Mensch, der in seinem Leben viel gesehen, gelernt und gelesen hat. Der Mensch kann die gelesenen Bücher, Eindrücke etc. nicht wörtlich wiedergeben (eine Datenbank könnte das), aber er kann deren Gehalt formulieren, wenn er gefragt wird.
Mathematiker ist übrigens ein geschützter Begriff. Nicht so wie Völkerrechtlerin oder Weltärztepräsident oder Lauterbachs Epidemiologieinstitut. Landgrebe muss mal aufpassen, dass das nicht nach hinten losgeht.
Man sollte „Ich, Über-Ich und Es“ nachbilden. Dann wäre man auf dem richtigen Weg zu „KI“…
‚„Und Pferde werden Flügel bekommen.“ Spitzenargument. So führt man einen Beweis unter Medizinern. Aber von Landgrebe und seinem Compagnon habe ich auch nix anderes erwartet.
„Die KI schafft es nur in (extrem teurer) Hochgeschwindigkeit Datenbanken auszulesen, nicht mehr & nicht weniger & sie macht dabei viele Fehler. Ich recherchiere, als notorischer Kommentator, recht viel, meist um das, was in meinem Kopf in einem organischen Rechner gespeichert ist, nochmal genauer zu verifizieren.“
Das merkt man leider. Viele neue Gedanken werden bei der Vorgehensweise nicht abfallen, wenn man nur verifizieren will, und alles andere abblockt. Ich werde Sie demnächst mal dran erinnern, welches Prompt Sie der KI hätten präsentieren müssen.
Im Hollywood-Film „Westworld“ von 1973 mit Yul Brynner wurde eindrucksvoll richtige KI dargestellt.
Letzte Tage hab‚ ich mal mit der KI über den Tango geplaudert . Meine Eingabe lautete : „ Just tango on “ und
sie wußte sofort , woher der Satz stammt . Tango tanzt man aber zu zweit , sagte ich . Sie hat mich gefragt , ob ich tanzen kann . Ich hab die Frage mit einer
Gegenfrage beantwortet . Nein , kann ich nicht , sagte sie ,denn ich habe keine Beine . Hab gelacht . Sie hat aber geleugnet , Humor zu besitzen . – Es war eine „Falle“ von mir , aber sie wollte nicht rein . Vermutlich ist sie schüchtern , eigentlich mag ich das . Solange sie rot werden , wenn sie sich erinnern , ist alles noch gut .