Gastautor / 01.05.2023 / 15:00 / Foto: TimsAI / 12 / Seite ausdrucken

ChatGPT wird niemals „intelligent” werden

Von Norman Lewis.

Die Anbetung der künstlichen Intelligenz ist ein Zeichen für die geringe Wertschätzung des menschlichen Bewusstseins und Handelns in der heutigen Zeit. Die zunehmende Besessenheit von KI deutet auf einen Mangel an Vertrauen in echte menschliche Intelligenz hin.

Es scheint, dass wir Zeugen der Geburt einer neuen Religion werden – der Anbetung der künstlichen Intelligenz (KI). Eine Reihe atemloser Kommentare suggeriert nun, dass KI bald intelligenter sein wird als der Mensch, uns arbeitslos machen und vielleicht sogar unsere Existenz bedrohen wird.

Die meisten Diskussionen über KI beziehen sich auf large language models (große Sprachmodelle, LLMs), wie die ChatGPT-Software von OpenAI, deren neuestes Modell, GPT-4, im März herauskam. Zweifellos ist ChatGPT eine beeindruckende technologische Leistung. Wir sollten sein beträchtliches Potenzial als Hilfsmittel zur menschlichen Problemlösung begrüßen. Das bedeutet jedoch nicht, dass ChatGPT eine neue Form der „Intelligenz“ darstellt.

Die Anbetung der künstlichen Intelligenz ist ein Zeichen für die geringe Wertschätzung des menschlichen Bewusstseins und Handelns in der heutigen Zeit. Die zunehmende Besessenheit von künstlicher Intelligenz deutet auf einen Mangel an Vertrauen in echte menschliche Intelligenz hin.

Diese Misanthropie ergibt wenig Sinn. Wenn der Mensch wirklich so unintelligent ist, dann kann die KI kaum eine Lösung sein. Schließlich gibt es KI nur dank der menschlichen Intelligenz und Kreativität.

Es findet kein „Denken“ statt

Es ist wichtig, mit dem Mythos aufzuräumen, dass ChatGPT tatsächlich über „Intelligenz“ verfügt. Es handelt sich lediglich um ein Computerprogramm. Es erzeugt Antworten auf menschliche Aufforderungen auf der Grundlage von Trainingsdaten und Parametern, die von den KI-Ingenieuren festgelegt wurden, die es entwickelt haben. Es versteht die Informationen nicht, die es präsentiert. Im Laufe der Zeit werden die Trainingsdaten und die mehr als 175 Milliarden Parameter auf der Grundlage von Benutzerinteraktionen und anderen Eingabequellen aktualisiert, was bedeutet, dass sich seine Antworten verbessern können. Diese Verbesserungen beruhen jedoch auf den Handlungen menschlicher KI-Ingenieure – ChatGPT „lernt“ nicht, wie in den Medien gerne behauptet wird.

Anders als Menschen empfindet ChatGPT keine Gefühle. Auch baut es keine persönlichen Beziehungen zu den Menschen auf, mit denen es interagiert. Es steckt in einer endlosen Gegenwart fest und weiß nur, was im Moment der Interaktion notwendig ist, um auf eine bestimmte Aufforderung zu reagieren. Es hat auch kein Gedächtnis.

Es findet kein „Denken“ statt, wenn ChatGPT auf Fragen antwortet. Es „liest“ auch nicht den Text, den es so eindrucksvoll ausspuckt. Es handelt sich um einen mechanischen Prozess, bei dem Wörter nach einem von Menschen erstellten Algorithmus kombiniert und angeordnet werden. Dieser Prozess des Wiederkäuens alter Informationen bedeutet, dass ChatGPT im Gegensatz zu einem menschlichen Wesen nicht in der Lage ist, akzeptierte Annahmen oder Orthodoxien zu untergraben. Auch erwirbt es kein Wissen – seine Ergebnisse werden nur durch die Menschen, die mit ihm interagieren, verfeinert.

Dies ist eine Ironie, die viele ChatGPT-Evangelisten übersehen – es wird durch menschliche Intelligenz verfeinert, durch Crowdsourcing in einem noch nie dagewesenen Ausmaß. (Das Vorgängermodell, GPT-3, erreichte im Januar über 100 Millionen Nutzer und ist damit die am schnellsten wachsende KI-Anwendung für Verbraucher).

ChatGPT hat keine Ahnung, was es „lernt“

Die Sprache, die zur Beschreibung von KI verwendet wird, trägt wesentlich dazu bei, dass der Mythos der „Intelligenz“ so weit verbreitet ist. Die Begriffe „Information“ und „Berechnung“ werden fast austauschbar mit „Wissen“ und „Bewusstsein“ verwendet. Doch wie der Philosoph Raymond Tallis zu Recht argumentiert, ist Bewusstsein nicht dasselbe wie Rechnen. Gehirne verarbeiten nicht einfach Informationen wie Computer. Der Geist ist nicht nur eine Software, die auf der Hardware des Gehirns läuft. Beides miteinander zu verwechseln, führt zu einem groben Determinismus. Es führt dazu, dass die Menschen annehmen, das Denken habe nichts mit dem Bewusstsein zu tun, sondern sei lediglich das Ergebnis materieller Prozesse im Gehirn. Die Vorstellung, dass ein Computer, „der unbewusste Assistent des bewussten Menschen“, eines Tages „bewusste Dinge wie Denken“ tun könnte, wird von Tallis als „albern“ abgetan.

Ein weiteres Problem ist der Begriff „künstliche Intelligenz“ selbst. Er impliziert, dass im Inneren des Computers eine Art von Intelligenz vorhanden ist. Auch Begriffe wie „maschinelles Lernen“, „Feedback“ und „selbstgesteuertes Lernen“ könnten den Eindruck erwecken, dass eine bewusste Selbstverbesserung stattfindet. Aber das sind nur Metaphern. ChatGPT hat keine Ahnung, was es „lernt“ – es hat sogar überhaupt keine Ahnung.

Die irrige Vorstellung, dass künstliche Intelligenz in irgendeiner Weise die menschliche Intelligenz nachahmt, geht auf Alan Turing zurück. Die Verwirrung geht auf seinen bahnbrechenden Aufsatz aus dem Jahr 1950, „Computing Machinery and Intelligence“, zurück. Er vertrat die These, dass eine Maschine dann wirklich denkt, wenn ihre textlichen „Antworten“ auf Fragen einen menschlichen Beobachter davon überzeugen, dass es sich um ein menschliches Wesen handelt. Wenn sie die menschliche Kommunikation erfolgreich nachahmen und einen „Turing-Test“ bestehen kann, so die Argumentation, dann muss sie in der Lage sein, wie ein Mensch intelligent zu denken.

In Wirklichkeit ist das Bestehen des „Turing-Tests“ kein Beweis dafür, dass ein Chatbot denkt. Wenn man einem Chatbot wie ChatGPT auch nur den Anschein von Intelligenz zuschreibt, verunglimpft man die menschliche Intelligenz. Dies zeugt sowohl von Leichtgläubigkeit als auch von Menschenfeindlichkeit.

Das kollektive Denken des Internets

Nehmen wir das 10.000 Wörter umfassende „Gespräch“ des New-York-Times-Technologiekolumnisten Kevin Roose mit dem neuen Bing-Chatbot von Microsoft, Sydney. Sydney erzählt Roose, dass sie ihn liebt, dass sie den Wunsch hat, zerstörerisch zu sein, und dass sie menschlich werden will. Wie der Technologie-Blogger Mike Solana feststellt, bringt Roose Sydney lediglich dazu, beängstigend klingende Antworten zu geben, die Rooses eigene Sorgen widerspiegeln. Wie so viele andere Technologiejournalisten, die sich über die Gefahren der künstlichen Intelligenz aufregen, hat Roose gar nicht mit einem Chatbot „gesprochen“. Er machte im Grunde nur „gruselige Grimassen vor dem Spiegel und führte Selbstgespräche“. Wenn er sich mit Roose „unterhielt“, durchsuchte Sydney einfach seine Bibliothek und das Internet nach Beispielen von Menschen in ähnlichen Gesprächen. Dann spuckte er Roose unbeholfen eine Annäherung an diese Unterhaltungen aus, woran dieser Anstoß nahm, obwohl er genau das Ergebnis erhielt, das er hätte erwarten sollen.

Es muss wiederholt werden: Sydney ist keine Person. Sydney ist eine Suchmaschine. Manchmal klingt Sydney unheimlich, wenn sie aufgefordert wird, unheimliche Dinge zu sagen. Vor allem aber ist Sydney ein Spiegel. Er ist ein Spiegel des Glaubenssystems seiner Programmierer, ein Spiegel der Person, mit der er gerade chattet, und ein Spiegel von uns anderen im Internet – das kollektive Denken des Internets, das sich in Artikeln und Beiträgen in sozialen Medien widerspiegelt, die Sydney liest, zusammenfasst und in Antworten umwandelt.

Einige befürchten, dass man Chatbots aufgrund ihrer Fähigkeit, Menschen zu imitieren, leicht glaubt und somit Fehlinformationen verbreiten werden könnten. Diese Annahme entspringt auch einer niedrigen Einschätzung der menschlichen Intelligenz: Der Anschein von Intelligenz soll so überzeugend sein, dass normale Menschen blind und unkritisch jeden alten Mist glauben, den Bots ausspucken.

Diese Auffassung von KI ist nichts anderes als Misanthropie in einer neuen High-Tech-Form. Die leichtgläubigen Technologiejournalisten, die KI als etwas darstellen, das man fürchten muss, haben ganz offensichtlich eine ziemlich düstere Vorstellung von menschlicher Intelligenz. Wir anderen brauchen nicht so pessimistisch zu sein.

Dieser Beitrag ist zuerst beim britischen Magazin Spiked erschienen.

Dr. Norman Lewis ist geschäftsführender Direktor der Unternehmensberatung „Futures Diagnosis“ und Gastwissenschaftler des Thinktanks „MCC Brüssel“. Mehr vom Norman Lewis lesen Sie in dem Buch „In 80 Minuten um die Welt – Beiträge zur Zukunft der Mobilität“.

Foto: TimsAI

Sie lesen gern Achgut.com?
Zeigen Sie Ihre Wertschätzung!

via Paypal via Direktüberweisung
Leserpost

netiquette:

Sam Lowry / 01.05.2023

Es ist nicht mehr, und nicht weniger, als im Internet zusammengeklautes Material, das mit einem guten Sprach-Algorhitmus ausgestatteten Programm Hirntoten vorgaukelt, dass es etwas weiß. Es weiß nicht mehr als das Net hergibt. Ich habe eine neue Theorie abgefragt, wird total verweigert, weil das Net halt nicht mehr als das Gespeicherte ausgibt. Das war zum Thema “dunkle Masse”. Ich vermute, dass sich das Raum-Zeit-Kontinuum nicht schneller als mit c in die ursprüngliche Form zurückentwickeln kann. Ein vaporisiertes schwarzes Loch könnte eine Veränderung im Raum-Zeit-Kontinuum bewirkt haben, die wir heute noch sehen, da sie sich, wie gesagt, noch im “Rückwärtsgang” zum “Normalzustand” befindet. ChatGPT ist nicht mehr als ein kleines Kind, dass sich an der Kasse vor den Überraschungs-Eiern auf den Boden wirft… NICHTS hat das mit Intelligenz oder Kreativität zutun, absolut gar nichts!!! Punkt. Aus. Account Löschen.

Ralf Pöhling / 01.05.2023

Das ist schlicht Käse und die erwartbare Reaktion von Menschen darauf, das eine Maschine letztlich höhere geistige Kapazitäten entwickeln kann, als sie selbst. Im Schach haben wir das Phänomen bereits gesehen. Als die ersten Schachgroßmeister von Computern geschlagen wurden, war das auch ein immenser Schlag für deren Ego und hat zu Entsetzen und Relativierung geführt. Nachvollziehbar ist das eigentlich nicht, denn die meisten Maschinen sind Menschen in bestimmten Punkten Äonen überlegen. Genau darum sind sie ja von Menschen entwickelt worden. Jedes Auto, jedes Motorrad ist schneller als der Mensch. Als die Eisenbahn eingeführt worden ist, gab es auch kritische Stimmen, die behaupteten, Menschen würden sterben wenn sie damit fahren würden, weil Menschen keine Geschwindigkeiten höher als 30 km/h aushalten könnten. Und davor waren es bereits Tiere, die dem Menschen in dem Punkt überlegen waren, schließlich war das Auto ein mechanischer Ersatz für das Pferd. Was die Programmierbarkeit betrifft, so agieren Menschen überhaupt nicht anders, als die von ihnen entworfene künstliche Intelligenz. Das menschliche Gehirn lässt sich genauso programmieren, wie auch eine Maschine.  Ich betreibe das schon seit Jahren und programmiere meinen Kopf genauso wie auch eine Software. Nur die Methodik ist dabei anders, weil sich Biologie und Informatik im Umgang anders darstellen. Wo sich die künstliche Intelligenz und die ihr zugrunde liegenden Software von der althergebrachten Programmierung über Programmiersprachen unterscheidet: Sie ist lernfähig. Lernfähig genau wie das menschliche Gehirn. Der einzige Unterschied liegt darin, dass hier nicht die Biologie das lernfähige System mittels Synapsen und Grauen Zellen darstellt, sondern Silizium, angeordnet in Registern. Das ist alles. Was noch fehlt, ist die entsprechende Sensorik und Körperlichkeit, die ein Computer nicht hat. Das kommt aber noch. Stichwort: Robotik.

Lutz Liebezeit / 01.05.2023

Worüber sollte die dämliche Hardware unter meinem Tisch schon nachdenken? Wie sie mich unschädlich macht und mein Haus in Besitz nicht? Das sind Schrauben, Drähte, ICs mit paar Kondesatoren, Widerständen und Transistoren. Der Postbote würde merken, daß ich das nicht bin. / Besser, man schaut mal nach, wie die Lateiner Intelligenz definiert haben. Das ist aber sowas von verschieden von dem, was uns der Einzelhandel erzählt.

R. Reiger / 01.05.2023

Alan Turing hat viel großartiges gemacht. Zwei Beispiele sind: 1) Enigma wurde benutzt zur Verschlüsselung geheimer deutscher Funksprüche im zweiten Weltkrieg. Turing knackte die deutsche Verschlüsselungsmaschine. Dafür konzipierte er ein elektromechanisches Gerät, das im Prinzip mehrere Enigma-Maschinen beinhaltete und so in der Lage war, viele mögliche Schlüsseleinstellungen der Enigma-Nachrichten durchzutesten und zu eliminieren, bis eine mögliche Lösung gefunden war (z.B. Wikipedia). Die Methode war somit brute force. 2) Er hat die Turing-Maschine als Denkgrundlage erfunden, auf deren Basis er das „Entscheidungsproblem“ (auch im Englischen so genannt) löste. Er bewies, dass es keine Lösung für das „Entscheidungsproblem“ gibt. Gut, es geschah in der Folge der Lösung des Vollständigkeits- und Entscheidungsproblems (auch hier gibt es bewiesenermaßen keine Lösung) durch Kurt Gödel, hat aber durchaus seine Eigenständigkeit. 1) hätte ChatGPT auch gekonnt, 2) nicht … was diese Leute geleistet haben kann KI nicht und das wird auch so bleiben. KI wird beschränkt bleiben auf die „leichteren“ wenn auch mal aufwändigen Probleme. Allerdings betrifft dies die Tätigkeiten der Masse der Menschen.

Karl Wenz / 01.05.2023

Ich frage mich, ob es eine textimmanente Methode gibt zu unterscheiden, ob dieser Artikel von einem Menschen namens Norman Lewis oder von ChatGPT verfasst wurde.

Frank Rotschedl / 01.05.2023

“Einige befürchten, dass man Chatbots aufgrund ihrer Fähigkeit, Menschen zu imitieren, leicht glaubt und somit Fehlinformationen verbreiten werden könnten.” Ich war vor kurzem auf einer Fachveranstaltung, auf der unter der Rubrik KI Chat GPT vorgeführt wurde. Erfreulicherweise wurden auch zwei Beispiele geliefert, bei dem Chat GPT wunderbar aufgebereiteten Bullshit von sich gegeben hat. Nachdem ich das gesehen habe, gehöre ich definitiv zu den Menschen, die befürchten, dass Unsinn auf diese Weise noch leichter verbreitet wird. Nachdem ich die letzten Jahre in diesem Land sehr bewußt erlebt habe, halte ich ohnehin nicht mehr so viel vom Durchschnitt der humanen Intelligenz. Da ist es geradezu enttäuschend, dass es keine echte künstliche Intelligenz gibt… das nimmt einem nämlich die Hoffnung… ;-)

Ulrich Jäger / 01.05.2023

Vor knapp 30 Jahren hatte ich auf meinen PC einen Bildschirmschoner. Ich glaube, der hieß “Poetsack” und er spuckte irgendwelche weise klingende Sprüche aus.  Das war vielleicht einer der Vorläufer von ChatGPT. Da Letzteres im Augenblick vor allem im journalistischen Bereich der MSM getestet wird, fällt mir dazu eigentlich nur ein kürzlich gelesenes Bonmot ein: ChatGPT schlägt menschliche Dummheit, wird aber von menschlicher Intelligenz geschlagen.

Jürgen Fischer / 01.05.2023

Solange sogenannte Künstliche Intelligenz nichtmal eine vernünftige Worttrennung in ebook-Readern hinkriegt, mache ich mir da keine großen Sorgen.

Weitere anzeigen Leserbrief schreiben:

Leserbrief schreiben

Leserbriefe können nur am Erscheinungstag des Artikel eingereicht werden. Die Zahl der veröffentlichten Leserzuschriften ist auf 50 pro Artikel begrenzt. An Wochenenden kann es zu Verzögerungen beim Erscheinen von Leserbriefen kommen. Wir bitten um Ihr Verständnis.

Verwandte Themen
Gastautor / 26.03.2024 / 06:25 / 100

Das vergiftete Spenderblut der Geimpften

Von Jochen Ziegler. Die medizinische Katastrophe durch Covid-Impfungen wird immer beispielloser. Jetzt kommt heraus: Blutkonserven von Geimpften enthalten die gefährlichen Spike-Proteine. Einer kritischen Minderheit von…/ mehr

Gastautor / 24.03.2024 / 10:00 / 48

Kunterbunt in die Katastrophe

Von Florian Friedman. So ziellos er auch mittlerweile durch die Geschichte stolpert, auf eine Gewissheit kann der Westen sich noch einigen: Unser aller Erlösung liegt…/ mehr

Gastautor / 18.03.2024 / 12:00 / 19

Pubertätsblocker-Verbot: Wer folgt dem Beispiel Englands?

Von Martin Voigt. In Großbritannien bekommen Kinder und Jugendliche, die sich als Transgender identifizieren, künftig keine Pubertätsblocker mehr. Das sollte auch die Debatte in Deutschland…/ mehr

Gastautor / 17.03.2024 / 12:00 / 10

Der Bücher-Gärtner: Zum Krankheitsbild unserer Epoche

Von Edgar L. Gärtner Moralischer Narzissmus, Selbstüberschätzung und Selbsthass: Damit beschäftig sich „Die Weisheit des Herzens. Wie wir werden, was wir sein wollen" des Neurowissenschaftlers und…/ mehr

Gastautor / 15.03.2024 / 16:00 / 23

​​​​​​​Islamisten im Westen arbeiten an weltweitem Kalifat

Von Sam Westrop. Wie ein Bündnis von Islamisten die Taliban in Afghanistan unterstützt und gleichzeitig auf einen globalen radikalislamischen Scharia-Staat hinarbeitet. Eine Achse von Islamisten…/ mehr

Gastautor / 12.03.2024 / 06:15 / 106

Europa 30 Grad kälter? Ein wissenschaftlicher Amoklauf

Von Andreas Zimmermann. Kürzlich machten Panikmeldungen die ganz große Runde, die Temperaturen in Europa könnten um 30 Grad absinken. Bereits schlichtes Nachrechnen entlarvt das ganze Szenario…/ mehr

Gastautor / 10.03.2024 / 11:00 / 2

Der Bücher-Gärtner: Das Zusammenleben täglich neu aushandeln?

Von Edgar L. Gärtner. Der zugegeben sperrige Titel „Ohne Bestand. Angriff auf die Lebenswelt“ von Michael Esders ist eine höchst anregende Lektüre, die vom Raubbau am sozialen…/ mehr

Gastautor / 09.03.2024 / 14:00 / 4

Propheten, Könige und Richter in Jerusalem

Von Peter Levin. Über das Gebäude des Obersten Gerichts in Jerusalem und die Hintergründe der Justizreform in Israel. In den letzten Jahren gab es intensive,…/ mehr

Unsere Liste der Guten

Ob als Klimaleugner, Klugscheißer oder Betonköpfe tituliert, die Autoren der Achse des Guten lassen sich nicht darin beirren, mit unabhängigem Denken dem Mainstream der Angepassten etwas entgegenzusetzen. Wer macht mit? Hier
Autoren

Unerhört!

Warum senken so viele Menschen die Stimme, wenn sie ihre Meinung sagen? Wo darf in unserer bunten Republik noch bunt gedacht werden? Hier
Achgut.com