Gastautor / 04.11.2017 / 06:25 / Foto: Christopher Muncy / 12 / Seite ausdrucken

Letal, egal, irrational – vom Ende der Vernunft

Von Jobst Landgrebe.

Als Luther vor 500 Jahren mit der Veröffentlichung seiner 95 Thesen die Reformation einleitete, war er von der Überzeugung getragen, dass Evangelium und Vernunft gemeinsam genutzt werden müssen, um der eigentlichen Botschaft des christlichen Glaubens gegen die - wie wir heute sagen würden - Herrschaftsideologie der Amtskirche Geltung zu verschaffen.  Damit griff Luther auf die humanistische Tradition der Wirksamkeit des rationalen Arguments, die sich im Abendland seit den Vorsokratikern ausgebildet hat, zurück. Dies tat er zu einer Zeit, in der das mathematisch-naturwissenschaftliche Denken sich noch nicht durchgesetzt hatte und unsere Lebenswelt im Wesentlichen noch vor-technologisch war.

Ganz im Gegensatz zu heute: wir leben in einer Zeit der Globaltechnologie. Das naturwissenschaftliche Denken dominiert unsere Epoche vollkommen und hat die Welt in den bewohnten, hochentwickelten Regionen der OECD und auch wichtigen Bereichen der Entwicklungsländer in eine Technosphäre verwandelt: dank Mathematik, Physik und Ingenieurswissenschaften sind zahlreiche Lebensprozesse hochgradig technisiert und rationalisiert - wie jeder bestätigen kann, der ein Auto startet, in einem Supermarkt einkauft oder in ein Flugzeug steigt. Mit anderen Worten: die Vernunft hat gesiegt, wie man es an der globalen Technosphäre sehen kann. Hat sie?

Lesen wir Berichte und Debattenbeiträge über technische Themen wie Energiegewinnung und -verteilung, Klimawandel, landwirtschaftliche Produktion, Gentechnik, Nanotechnologie, Kommunikation oder Prothetik, wird uns klar, dass das abendländische, rationale Argument von einem krassen Irrationalismus verdrängt wird. Anstatt sich so lange mit den Technologien zu beschäftigen, bis ein rationaler Diskurs möglich wird, handeln Autoren nahezu wie im Lorenz'schen Instinktmodell: ein Schlüsselreiz löst eine vorprogrammierte Reaktion aus, bei der Gesinnung und emotionale Grundkonstitution ausschlaggebend sind. Der sokratische Vernunftdialog verschwindet ausgerechnet im Zeitalter der Globaltechnologie.

Ein akutes, sehr repräsentatives Beispiel dafür bietet der Artikel von Stefan Betschon in der NZZ vom 25.10.2017, in dem er auf eine der sich am dynamischsten entwickelnden Technologien unsere Zeit, die Künstliche Intelligenz (KI), eingeht. Der Autor hat nun auch die Erkenntnis von Anfang 2014 rezipiert, dass tiefe neuronale Netze perturbiert werden können: man kann ihnen sehr kleine Datenmengen vorlegen, die ihre Funktion fundamental stören. Daraus folgert er, ganz dem Lorenz'schen Instinktmodell treu, reflexhaft: "Deshalb stellen sie [die KI Systeme] für den Menschen eine Bedrohung dar." Diese Aussage ist überraschend - und schlicht und ergreifend falsch. Gehen wir der Reihe nach vor. 

Neuronale Netze werden aus Marketingründen so genannt

Was Neuronale Netze sind: Mit Hilfe sogenannter tiefer agnostischer neuronaler Netze wurden seit Beginn unseres Jahrzehnts Probleme gelöst, die der KI bisher nicht zugänglich waren: Textübersetzung, Bildthemenerkennung oder Gegenstandserkennung auf Bildern. Dafür werden pro zu lösender Aufgabe 1011 bis 5 x 1012 (100 bis 5.000 Milliarden) Input-Output-Datenpaare genutzt, beispielsweise hunderte von Milliarden Paare der Form oder tausende von Milliarden Paare der Form.

Nun soll das neuronale Netz trainiert werden, aus dem ersten Element eines solchen Paars das zweite zu berechnen, in den obigen Beispielen die Erkennung einer Katze auf einem Bild oder die Übersetzung eines Satzes aus dem Deutschen in das Englische.  Dies geschieht über eine Fehlerfunktion, die eine Abweichung des berechneten Ergebnisses vom aus den Beispieldaten bekannten Ergebnis beschreibt.  Diese Funktion wird nun algorithmisch optimiert.

Dabei entsteht ein riesiges Polynom, das aus Millionen von Termen besteht: das sogenannte neuronale Netz, das schlicht und ergreifend rein gar nichts mit der Funktion echter Neurone im Gehirn gemeinsam hat, sondern nur aus Marketinggründen so genannt wird. Diese Netze müssen mit den oben genannten riesigen Datenmengen trainiert werden – für die es nur wenige Anwendungen gibt, weil nur für wenige Probleme solche riesigen Datenmengen verfügbar sind. 

Wie Perturbationen funktionieren: Die Gruppe von Ian Goodfellow, weltweit einer der wichtigsten KI-Forscher im Bereich Bilderkennung, hat Anfang 2014 gezeigt, dass man agnostische neuronale Netze zur Bilderkennung perturbieren kann, die Gruppe von Pascal Frossard (EPFL, Lausanne) hat dieses Ergebnis jüngst noch verschärft. Solche neuronalen Netze erkennen das Motiv eines Bildes. Zu deren Perturbation mischt man in die Pixel des zu klassifizierenden Bildes ein künstliches Hintergrundbild (Perturbatorbild) ein und erzeugt so ein synthetisches, perturbiertes Bild. 

Dieses Bild kann vom Menschen nicht vom Originalbild unterschieden werden, weil der Änderungen minimal und sehr subtil sind.  Es führt aber dazu, dass das neuronale Netz das Bild vollkommen falsch klassifiziert, beispielsweise auf dem Bild eines Joysticks einen Chihuahua erkennt oder aus einem Mähdrescher einen Labrador macht. Aus diesem Befund (der auch für die Umwandlung gesprochener Sprache in Texte gilt) leitet Betschon nun ab, KI-Systeme stellten wegen ihrer Angreifbarkeit durch Perturbation eine Bedrohung dar – indem er argumentiert, kritische KI-Systeme zur Fahrzeugsteuerung, medizinischen Diagnosestellung oder Kriegsführung würden dadurch verwundbar. Dieser Gedankengang offenbart den oben beschriebenen typischen Irrationalismus.

Warum Perturbationen ungefährlich sind. Erstens gibt es in der Realität kaum KI-Systeme, die allein auf Basis agnostischer neuronaler Netze arbeiten. Ein KI-System ist in der Regel eine Kette von Automaten, die zusammenarbeiten, um menschliches Handeln zu imitieren. Dabei werden verschiedene Algorithmen verbaut, um die unterschiedlichen Prozessschritte, die zum gewünschten Handlungsergebnis führen, mathematisch optimal abzubilden. Unter anderem kommen Logik-basierte Algorithmen zum Einsatz, die nicht perturbierbar sind wie neuronale Netze. Außerdem sind agnostische neuronale Netze oft gar nicht optimal, sondern das neuronale Netz wird hinter einem Filter eingesetzt, der die Daten aus der Realität für das Netz aufbereitet. 

Insgesamt werden missionskritische Systeme wie beim autonomen Fahren redundant gebaut, so dass einzelne Komponenten ausfallen oder Fehler machen können. Aufgrund des seelsorgerlichen Aspekts der Medizin und der in therapeutischen Situationen benötigten Urteilskraft werden dort nie KI-Automaten alleine arbeiten. Eine etwas genauere Kenntnis des Gegenstands zeigt also leicht, wie irrational die reflexartige Argumentation ist.

Wo KI wirklich gefährlich ist – etwa bei Kampfmaschinen

Wirklich gefährlich sind zwei Aspekte der KI: erstens die systemimmanente Störanfälligkeit aller technischen Systeme, die für jede Technologie gilt, wie auch für Atomkraftwerke oder Raumstationen. Beispielsweise könnten selbstfahrende Autos gehackt und als unbemannte Waffen eingesetzt werden oder KI-gesteuerte Fertigungsstraßen sabotiert werden, um in Massenprodukte Fehler einzubauen - mit vergleichbaren Folgen wie die Vergiftung von Nahrungsmitteln als eine Form des Terrorismus.

Zweitens sind autonom handelnde Waffensysteme, insbesondere solche, die wie klassische Infanteristen Kleinkaliberwaffen oder mit Raketen arbeitende Handwaffen (wie Panzerabwehrhandwaffen) führen, extrem gefährlich. Durch Reinforcement Learning, ein Spezialgebiet der KI-Forschung, können sie deutlich effektiver und effizienter werden als Menschen.  Sie können darauf programmiert werden, selektiv Menschen zu töten und arbeiten, bis ihnen die Energie ausgeht oder sie zerstört werden.

Bald werden sie sich in menschlichen Siedlungsgebieten und Häusern genauso flexibel bewegen können wie Menschen, nur schneller und effektiver (beispielsweise werden sie Wände durchqueren können und einige Meter mühelos hinauf- und hinabspringen). Auch werden sie erstklassig im Verband arbeiten können (derzeit ein intensives Forschungsgebiet in der KI) und kennen keine Angst oder Zweifel; man kann sie nicht um Gnade anflehen oder sie durch Unterwerfungsgesten besänftigen.  Wie die ABC-Waffen sind KI-Waffen ein Bereich der Waffentechnologie, der dringend international geregelt werden muss und dessen Nutzung nahezu keinem Staat und erst recht keinen nichtstaatlichen Akteuren überlassen werden darf.

Dies sind die Gefahren, vor denen man warnen muss, anstatt auf der Basis von Halbwissen reflexhaft Alarmismus zu verbreiten.

Pseudoliberale, irrationale Technologiekritik

Wieso argumentierte Luther mit der Vernunft im prätechnologischen Zeitalter, während heute genau die Publizisten, die sich ihren Alltag ohne (vernunftbasierte) Technologie gar nicht mehr vorstellen können, so häufig irrational über Technologie schreiben? Nun ja, Luther war ein Genie, der sich gegen die Herrschaftsideologie seiner Zeit stellte. Doch viele Publizisten sind normale Menschen, die mit dem pseudoliberalen Zeitgeist gehen. Nach 70 Jahren Frieden und exponentiell steigendem Wohlstand ist den meisten nicht klar, wie verletzlich und erschütterbar dieser historische Sonderzustand ist, und dass er jederzeit enden kann.

Die Pseudoliberalen (J. Baberowksi) haben vergessen, dass wir den technischen und gesellschaftlichen Zustand unserer Gesellschaft dem Einsatz der Vernunft in allen Lebensbereichen verdanken.  Die Vernunft, die neben unserem christlichen Erbe unsere Kultur bestimmt, geben sie leichtfertig preis. Wir erleben nicht nur eine "Niederlage der politischen Vernunft" (E. Flaig), sondern ein umfassendes Aufgeben der Vernunft.

Stattdessen huldigen die Pseudoliberalen einem gesinnungsmoralischen, irrationalen Kult der staatlichen Durchsetzung von Sonderinteressen, getarnt als "Gleichheit" oder "soziale Gerechtigkeit", der in Wirklichkeit den Interessen einer dünnen Schicht auf Kosten der ganz großen Mehrheit dient. Zu diesem Kult gehören moralisierendes Denken und Sprache mit Diffamierung und Schmähung Andersdenkender, krasse Vernachlässigung der wichtigsten staatlichen Aufgabe der Gewaltverhinderung sowie "staatliche Bevormundung der Bürger, die Tribalisierung und Ethnisierung der Gesellschaft, offene Grenzen und die Verteufelung des Nationalstaats, die Anbetung der Globalisierung [...] und die Rehabilitierung der Religion gegenüber der Aufklärung" (Jörg Baberowski) - und eben auch der hier geschilderte törichte Alarmismus im Umgang mit Technologie, der die wahren Gefahren verkennt. Wer so mit seinem wichtigsten Erbe umgeht, dem wird es schlecht ergehen.

Dr. Jobst Landgrebe ist Geschäftsführer der Cognotekt GmbH, einer auf die Automatisierung einfacher geistiger Tätigkeiten mit Künstlicher Intelligenz spezialisierten Firma. Er veröffentlicht regelmäßig zum Themenkreis „Technologie und Gesellschaft“.

Foto: Christopher Muncy dvidshub , Public Domain, Link">via Wikimedia Commons
Leserpost (12)
beat schaller / 04.11.2017

Sehr geehrter Herr Dr. Landgrebe, Ich bin überwältigt von Ihren Ausführungen! Und ganz speziell bringen Sie die Funktionen UNSERER hochaktuellen Krankheit in Politik und Gesellschaft in ganz wenigen Worten ganz genau auf den Punkt! Danke Ihnen für diese einleuchtenden Ausführungen und einmal mehr auch der “Achse” dort wo eben genau solche wichtigen Informationen und Gedanken zu finden sind. Ganz grosse Klasse! b.schaller

Thomas Nuszkowski / 04.11.2017

Was ist der Grund? Meine Marke-Eigenbau-These geht so: Es fehlen Phasen der Konsolidierung. Die Wissenschaft legt inzwischen ein enormes Tempo vor. Dinge werden immer schneller immer komplizierter. Und immer weniger Leute wissen noch, wie die Dinge funktionieren. Relativ wenige Wissenschaftler laufen in Siebenmeilenstiefeln allen anderen davon. Die Diskrepanz zwischen der Verständnisebene dieser Wissenschaftler und dem Rest der Welt wird immer größer und führt zu den von Ihnen beklagten Folgen. Es fehlen Konsolidierungsphasen, in denen die Nichtwissenschaftler aufschließen können. Ein einfaches Beispiel sind die Smartphones. Fast jeder hat solch ein Teil, und fast jeder hat keine nennenswerte Kenntnis der inneren Wirkmechanismen. Ein Fortschritt ist erst dann gelungen, wenn alle fortgeschritten sind und nicht nur eine Handvoll Spezialisten.

Weitere anzeigen Leserbrief schreiben:

Leserbrief schreiben

Leserbriefe können wir meist nur während der ersten 24 Stunden nach Veröffentlichung eines Artikels annehmen.

Verwandte Themen
Gastautor / 20.11.2017 / 06:28 / 24

Good morning Pleite: Made in Germany in der Krise

Von Wilfried Krokowski. Liest man in den Nachrichten die Frohmuts-Verkündigungen unserer großen Parteien, so urteilt zum Beispiel die CDU über die aktuelle Wirtschaftslage: „Boom! Deutschlands…/ mehr

Gastautor / 19.11.2017 / 09:55 / 36

Unser Land ist auf einem gefährlichen Weg

Von Mathias Döpfner.  Ich habe den Atem angehalten. Ich wollte spüren und messen, wie lange es dauert nach dem schrecklichen Urteil von Frankfurt, in dem…/ mehr

Gastautor / 18.11.2017 / 18:12 / 4

Der Frühling, der ein Winter war

Von Arye S. Shalicar. Der Nahe Osten befindet sich in einer Zeit der Wende. Während ich dies schreibe, verändert sich die Realität um Israel herum…/ mehr

Gastautor / 18.11.2017 / 16:19 / 4

Der Nordirland-Konflikt lebt wieder auf

Von Wolfgang Mayr.  Die Brexit-Strategen Nigel Farage und Boris Johnson werden in die britische Geschichte als die Verschrotter Großbritanniens eingehen. Die schottische Mitte-Links-Regierung sucht nach…/ mehr

Meine Favoriten.

Wenn Ihnen ein Artikel gefällt, können Sie ihn als Favoriten speichern.
Ihre persönliche Auswahl finden Sie Hier
Favoriten

Unsere Liste der Guten

Ob als Klimaleugner, Klugscheißer oder Betonköpfe tituliert, die Autoren der Achse des Guten lassen sich nicht darin beirren, mit unabhängigem Denken dem Mainstream der Angepassten etwas entgegenzusetzen. Wer macht mit? Hier
Autoren

Unerhört!

Warum senken so viele Menschen die Stimme, wenn sie ihre Meinung sagen? Wo darf in unserer bunten Republik noch bunt gedacht werden? Hier
Achgut.com