Von Jobst Landgrebe.
Als Luther vor 500 Jahren mit der Veröffentlichung seiner 95 Thesen die Reformation einleitete, war er von der Überzeugung getragen, dass Evangelium und Vernunft gemeinsam genutzt werden müssen, um der eigentlichen Botschaft des christlichen Glaubens gegen die - wie wir heute sagen würden - Herrschaftsideologie der Amtskirche Geltung zu verschaffen. Damit griff Luther auf die humanistische Tradition der Wirksamkeit des rationalen Arguments, die sich im Abendland seit den Vorsokratikern ausgebildet hat, zurück. Dies tat er zu einer Zeit, in der das mathematisch-naturwissenschaftliche Denken sich noch nicht durchgesetzt hatte und unsere Lebenswelt im Wesentlichen noch vor-technologisch war.
Ganz im Gegensatz zu heute: wir leben in einer Zeit der Globaltechnologie. Das naturwissenschaftliche Denken dominiert unsere Epoche vollkommen und hat die Welt in den bewohnten, hochentwickelten Regionen der OECD und auch wichtigen Bereichen der Entwicklungsländer in eine Technosphäre verwandelt: dank Mathematik, Physik und Ingenieurswissenschaften sind zahlreiche Lebensprozesse hochgradig technisiert und rationalisiert - wie jeder bestätigen kann, der ein Auto startet, in einem Supermarkt einkauft oder in ein Flugzeug steigt. Mit anderen Worten: die Vernunft hat gesiegt, wie man es an der globalen Technosphäre sehen kann. Hat sie?
Lesen wir Berichte und Debattenbeiträge über technische Themen wie Energiegewinnung und -verteilung, Klimawandel, landwirtschaftliche Produktion, Gentechnik, Nanotechnologie, Kommunikation oder Prothetik, wird uns klar, dass das abendländische, rationale Argument von einem krassen Irrationalismus verdrängt wird. Anstatt sich so lange mit den Technologien zu beschäftigen, bis ein rationaler Diskurs möglich wird, handeln Autoren nahezu wie im Lorenz'schen Instinktmodell: ein Schlüsselreiz löst eine vorprogrammierte Reaktion aus, bei der Gesinnung und emotionale Grundkonstitution ausschlaggebend sind. Der sokratische Vernunftdialog verschwindet ausgerechnet im Zeitalter der Globaltechnologie.
Ein akutes, sehr repräsentatives Beispiel dafür bietet der Artikel von Stefan Betschon in der NZZ vom 25.10.2017, in dem er auf eine der sich am dynamischsten entwickelnden Technologien unsere Zeit, die Künstliche Intelligenz (KI), eingeht. Der Autor hat nun auch die Erkenntnis von Anfang 2014 rezipiert, dass tiefe neuronale Netze perturbiert werden können: man kann ihnen sehr kleine Datenmengen vorlegen, die ihre Funktion fundamental stören. Daraus folgert er, ganz dem Lorenz'schen Instinktmodell treu, reflexhaft: "Deshalb stellen sie [die KI Systeme] für den Menschen eine Bedrohung dar." Diese Aussage ist überraschend - und schlicht und ergreifend falsch. Gehen wir der Reihe nach vor.
Neuronale Netze werden aus Marketingründen so genannt
Was Neuronale Netze sind: Mit Hilfe sogenannter tiefer agnostischer neuronaler Netze wurden seit Beginn unseres Jahrzehnts Probleme gelöst, die der KI bisher nicht zugänglich waren: Textübersetzung, Bildthemenerkennung oder Gegenstandserkennung auf Bildern. Dafür werden pro zu lösender Aufgabe 1011 bis 5 x 1012 (100 bis 5.000 Milliarden) Input-Output-Datenpaare genutzt, beispielsweise hunderte von Milliarden Paare der Form oder tausende von Milliarden Paare der Form.
Nun soll das neuronale Netz trainiert werden, aus dem ersten Element eines solchen Paars das zweite zu berechnen, in den obigen Beispielen die Erkennung einer Katze auf einem Bild oder die Übersetzung eines Satzes aus dem Deutschen in das Englische. Dies geschieht über eine Fehlerfunktion, die eine Abweichung des berechneten Ergebnisses vom aus den Beispieldaten bekannten Ergebnis beschreibt. Diese Funktion wird nun algorithmisch optimiert.
Dabei entsteht ein riesiges Polynom, das aus Millionen von Termen besteht: das sogenannte neuronale Netz, das schlicht und ergreifend rein gar nichts mit der Funktion echter Neurone im Gehirn gemeinsam hat, sondern nur aus Marketinggründen so genannt wird. Diese Netze müssen mit den oben genannten riesigen Datenmengen trainiert werden – für die es nur wenige Anwendungen gibt, weil nur für wenige Probleme solche riesigen Datenmengen verfügbar sind.
Wie Perturbationen funktionieren: Die Gruppe von Ian Goodfellow, weltweit einer der wichtigsten KI-Forscher im Bereich Bilderkennung, hat Anfang 2014 gezeigt, dass man agnostische neuronale Netze zur Bilderkennung perturbieren kann, die Gruppe von Pascal Frossard (EPFL, Lausanne) hat dieses Ergebnis jüngst noch verschärft. Solche neuronalen Netze erkennen das Motiv eines Bildes. Zu deren Perturbation mischt man in die Pixel des zu klassifizierenden Bildes ein künstliches Hintergrundbild (Perturbatorbild) ein und erzeugt so ein synthetisches, perturbiertes Bild.
Dieses Bild kann vom Menschen nicht vom Originalbild unterschieden werden, weil der Änderungen minimal und sehr subtil sind. Es führt aber dazu, dass das neuronale Netz das Bild vollkommen falsch klassifiziert, beispielsweise auf dem Bild eines Joysticks einen Chihuahua erkennt oder aus einem Mähdrescher einen Labrador macht. Aus diesem Befund (der auch für die Umwandlung gesprochener Sprache in Texte gilt) leitet Betschon nun ab, KI-Systeme stellten wegen ihrer Angreifbarkeit durch Perturbation eine Bedrohung dar – indem er argumentiert, kritische KI-Systeme zur Fahrzeugsteuerung, medizinischen Diagnosestellung oder Kriegsführung würden dadurch verwundbar. Dieser Gedankengang offenbart den oben beschriebenen typischen Irrationalismus.
Warum Perturbationen ungefährlich sind. Erstens gibt es in der Realität kaum KI-Systeme, die allein auf Basis agnostischer neuronaler Netze arbeiten. Ein KI-System ist in der Regel eine Kette von Automaten, die zusammenarbeiten, um menschliches Handeln zu imitieren. Dabei werden verschiedene Algorithmen verbaut, um die unterschiedlichen Prozessschritte, die zum gewünschten Handlungsergebnis führen, mathematisch optimal abzubilden. Unter anderem kommen Logik-basierte Algorithmen zum Einsatz, die nicht perturbierbar sind wie neuronale Netze. Außerdem sind agnostische neuronale Netze oft gar nicht optimal, sondern das neuronale Netz wird hinter einem Filter eingesetzt, der die Daten aus der Realität für das Netz aufbereitet.
Insgesamt werden missionskritische Systeme wie beim autonomen Fahren redundant gebaut, so dass einzelne Komponenten ausfallen oder Fehler machen können. Aufgrund des seelsorgerlichen Aspekts der Medizin und der in therapeutischen Situationen benötigten Urteilskraft werden dort nie KI-Automaten alleine arbeiten. Eine etwas genauere Kenntnis des Gegenstands zeigt also leicht, wie irrational die reflexartige Argumentation ist.
Wo KI wirklich gefährlich ist – etwa bei Kampfmaschinen
Wirklich gefährlich sind zwei Aspekte der KI: erstens die systemimmanente Störanfälligkeit aller technischen Systeme, die für jede Technologie gilt, wie auch für Atomkraftwerke oder Raumstationen. Beispielsweise könnten selbstfahrende Autos gehackt und als unbemannte Waffen eingesetzt werden oder KI-gesteuerte Fertigungsstraßen sabotiert werden, um in Massenprodukte Fehler einzubauen - mit vergleichbaren Folgen wie die Vergiftung von Nahrungsmitteln als eine Form des Terrorismus.
Zweitens sind autonom handelnde Waffensysteme, insbesondere solche, die wie klassische Infanteristen Kleinkaliberwaffen oder mit Raketen arbeitende Handwaffen (wie Panzerabwehrhandwaffen) führen, extrem gefährlich. Durch Reinforcement Learning, ein Spezialgebiet der KI-Forschung, können sie deutlich effektiver und effizienter werden als Menschen. Sie können darauf programmiert werden, selektiv Menschen zu töten und arbeiten, bis ihnen die Energie ausgeht oder sie zerstört werden.
Bald werden sie sich in menschlichen Siedlungsgebieten und Häusern genauso flexibel bewegen können wie Menschen, nur schneller und effektiver (beispielsweise werden sie Wände durchqueren können und einige Meter mühelos hinauf- und hinabspringen). Auch werden sie erstklassig im Verband arbeiten können (derzeit ein intensives Forschungsgebiet in der KI) und kennen keine Angst oder Zweifel; man kann sie nicht um Gnade anflehen oder sie durch Unterwerfungsgesten besänftigen. Wie die ABC-Waffen sind KI-Waffen ein Bereich der Waffentechnologie, der dringend international geregelt werden muss und dessen Nutzung nahezu keinem Staat und erst recht keinen nichtstaatlichen Akteuren überlassen werden darf.
Dies sind die Gefahren, vor denen man warnen muss, anstatt auf der Basis von Halbwissen reflexhaft Alarmismus zu verbreiten.
Pseudoliberale, irrationale Technologiekritik
Wieso argumentierte Luther mit der Vernunft im prätechnologischen Zeitalter, während heute genau die Publizisten, die sich ihren Alltag ohne (vernunftbasierte) Technologie gar nicht mehr vorstellen können, so häufig irrational über Technologie schreiben? Nun ja, Luther war ein Genie, der sich gegen die Herrschaftsideologie seiner Zeit stellte. Doch viele Publizisten sind normale Menschen, die mit dem pseudoliberalen Zeitgeist gehen. Nach 70 Jahren Frieden und exponentiell steigendem Wohlstand ist den meisten nicht klar, wie verletzlich und erschütterbar dieser historische Sonderzustand ist, und dass er jederzeit enden kann.
Die Pseudoliberalen (J. Baberowksi) haben vergessen, dass wir den technischen und gesellschaftlichen Zustand unserer Gesellschaft dem Einsatz der Vernunft in allen Lebensbereichen verdanken. Die Vernunft, die neben unserem christlichen Erbe unsere Kultur bestimmt, geben sie leichtfertig preis. Wir erleben nicht nur eine "Niederlage der politischen Vernunft" (E. Flaig), sondern ein umfassendes Aufgeben der Vernunft.
Stattdessen huldigen die Pseudoliberalen einem gesinnungsmoralischen, irrationalen Kult der staatlichen Durchsetzung von Sonderinteressen, getarnt als "Gleichheit" oder "soziale Gerechtigkeit", der in Wirklichkeit den Interessen einer dünnen Schicht auf Kosten der ganz großen Mehrheit dient. Zu diesem Kult gehören moralisierendes Denken und Sprache mit Diffamierung und Schmähung Andersdenkender, krasse Vernachlässigung der wichtigsten staatlichen Aufgabe der Gewaltverhinderung sowie "staatliche Bevormundung der Bürger, die Tribalisierung und Ethnisierung der Gesellschaft, offene Grenzen und die Verteufelung des Nationalstaats, die Anbetung der Globalisierung [...] und die Rehabilitierung der Religion gegenüber der Aufklärung" (Jörg Baberowski) - und eben auch der hier geschilderte törichte Alarmismus im Umgang mit Technologie, der die wahren Gefahren verkennt. Wer so mit seinem wichtigsten Erbe umgeht, dem wird es schlecht ergehen.
Dr. Jobst Landgrebe ist Geschäftsführer der Cognotekt GmbH, einer auf die Automatisierung einfacher geistiger Tätigkeiten mit Künstlicher Intelligenz spezialisierten Firma. Er veröffentlicht regelmäßig zum Themenkreis „Technologie und Gesellschaft“.