Von Fabian Nicolay.
Nicht der Konsument und sein Nutzerverhalten sind das Problem, sondern die Algorithmen, die ihn stigmatisieren, indem sie ihm schmutzige, verfolgbare Inhalte anheften, die er autonom wahrscheinlich nie hätte auffinden wollen. Die von den sozialen Netzwerken eingesetzten Mechanismen der Künstlichen Intelligenz (KI) haben ungewollte Nebenwirkungen. Sie sind wie Haarwuchsmittel, das die Libido absenkt.
Statt – wie eigentlich beabsichtigt – den Nutzern der sozialen Netzwerke und Medien (nur) personalisierte, bedarfsgerechte Konsumvorschläge zu machen, indem die Vorlieben jedes einzelnen so analysiert, verglichen und gespeichert werden, dass sich zielgerichtet Steigerungspotenziale beim Konsum erzielen lassen, senkt der Algorithmus unbeabsichtigt auch die Werbe-Attraktivität des Kunden, weil die Tendenz seiner sozialen und politischen Vorlieben durch immer stärkere Impulse der empfohlenen (politischen) Inhalte radikalisiert wird.
Man kann davon ausgehen, dass eine gewisse Affinität zu rechten oder linken Inhalten dazu ausreicht, um das jeweils radikalisierende Vorschlagswesen in Gang zu setzen. Dabei spielt es keine Rolle, ob der Kunde tatsächlich empfänglich für Radikalisierung ist oder nicht: Das Vorschlagswesen skandalisiert den Beziehungs-Zusammenhang der betreffenden Person automatisch, die infolgedessen in ein immer tieferes Loch sozialer Entfremdung gezogen wird, sobald sie den Inhalten folgt. Als Konsequenz seiner durch das Medium geförderten Radikalisierung wird der Nutzer zur persona non grata, als Werbekunde unbrauchbar und als „Radikaler“ in den Netzwerken identifizierbar. Seine Nutzerhistorie und sein Profil sind als Fußabdrücke seines Medienkonsums abrufbar und käuflich. In den Händen repressiver Strukturen bedroht dies seine individuelle Freiheit.
Das Auffinden immer radikalerer Inhalte durch das algorithmen-gesteuerte Vorschlagswesen ist keineswegs nur auf das direkte Such- und Rezeptionsverhalten des Nutzers zurückzuführen, sondern auf die Verknüpfung solcher Inhalte durch die Künstliche Intelligenz, die dazu programmiert wurde, generell Steigungspotenziale aufzufinden und anzubieten, egal ob es sich um Vorlieben für Produkte oder soziale Angebote (zum Beispiel Meinungen) handelt. Das Folgeproblem: Klassische (Marken-)Werbung lässt sich erstens im Umfeld radikalisierten Gedankenguts nicht mehr gut platzieren, zweitens richten sich die Eindämmungsmaßnahmen der herrschenden Eliten genau gegen jene nun identifizierbaren, politisch unbequemen Konsumenten. Der Algorithmus kannibalisiert seinen eigentlichen Selbstzweck.
Der Allgorrithmus als Aufpeitscher
Mitte 2017 wurden pro Minute 500 Stunden Videos auf die Plattform Youtube hochgeladen. Um aus dieser Unmenge an Daten relevante Vorschläge für seine Nutzer zu generieren, fungiert die Plattform quasi als allwissender Kurator. Genau hier liegt das Problem: YouTube kennt alle Inhalte, kann sie generisch sortieren und die relevanten Inhalte zielgerichtet vorschlagen, da die Plattform die aus den Sucheingaben und der individuellen Abspielhistorie herausgefilterten Vorlieben jedes einzelnen Nutzers kennt.
So ein Einzelnutzer hätte nicht die Fähigkeit, mit einer spezifischen Suche im gigantischen, ungeordneten Haufen an Daten für ihn relevante Inhalte aufzufinden. Somit wäre es ausgeschlossen, dass eine flächendeckende Gleichschaltung durch radikalisierte Inhalte bei YouTubern stattfindet, die eine gleiche Affinität zu speziellen Inhalten haben. Will heißen: Das Vorschlagswesen über Algorithmen ist ein Problem, weil der vorschlagende Kurator alle Inhalte kennt und sofort verfügbar macht. Somit findet die informationstheoretisch so wertvolle Verknappung nicht statt, sondern eine Pseudo-Selektion, deren Fokus auf Steigerungspotenzial und Eskalation liegt.
Der menschliche Faktor fehlt den algorithmen-gesteuerten Plattformen: die Begrenztheit menschlicher Auffassungsgabe, Mangel an Effizienz, zeitliche und physische Limitierung. Ursprünglich als Technik zielgerichteter Werbung gedacht, wird der Algorithmus selbst zum Aufheizer von hitzig geführten Diskursen, zum Aufpeitscher radikalen Gedankenguts und zum Verbreiter von Verschwörungstheorien. Der Konsument wird wahnhaft in ein Universum von Skandalen und Fatalismen katapultiert, weil die ihm vorgeschlagenen Inhalte eine Form der Radikalität annehmen, die massiver ist als seine ursprüngliche Ausgangslage. Der Konsument solcher Inhalte befindet sich unter einer Glasglocke, die er passiv nicht verlassen kann, zumal ihn seine rezipierten Inhalte verfolgen.
Aktionistische Eindämmungs-Versuche
Der Veranlasser dieser Wechselwirkung ist also nicht der Rezipient, sondern die KI des Mediums selbst. Die Algorithmen der sozialen Netzwerke stigmatisieren ihre Konsumenten, indem sie ihnen schmutzige Inhalte anheften.
Wir befinden uns in der fortgeschrittenen Phase der Entwicklung, in der die Maßnahmen der Eliten sich bereits gegen die ursprüngliche Verfassung des Mediums richten und die Machthaber das revolutionäre Potenzial der Technik hektisch und aktionistisch einzudämmen versuchen.
Bei den politisch veranlassten Maßnahmen gegen „Hate Speech“ handelt es sich nicht um den Versuch, ethisch-moralische Werte wieder zu etablieren. Längst gehen die Löschungen und die Zensur darüber hinaus: Unliebsame Kritik, störende Zwischenrufe, aber auch zitierende Berichterstattung oder Satire fallen gleichsam der ungelenken Zensur zum Opfer. Egal, ob der Algorithmus und seine Helfeshelfer mit Augenmaß an die Löschungen gehen: Der Politik geht es schlicht um Machterhalt und Deutungshoheit.
Fabian Nicolay ist Kommunikationsdesigner in Berlin.
Facebook-Wars (1): Social-Media als Kampf-Roboter
Facebook-Wars (3): Aus Convenience wird Repression
In der nächsten Folge lesen Sie morgen: Die Demokratie läuft Gefahr, von der „KI“ abgeschafft zu werden. Der Startbutton wurde schon gedrückt.
Einer der besten Vorträge zum Thema von Zeynep Tufekci
Facebook wirft Cambridge Analytica raus
The techlash against Amazon, Facebook and Google—and what they can do
Beitragsbild: Thomas Edwards Flickr CC BY 2.0 via Wikimedia Commons

„Der menschliche Faktor fehlt den algorithmen-gesteuerten Plattformen“. Zum Einen werden die Zensurmassnahmen durch Kahanes Team ja von echten Personen und nicht von irgendwelchen Bots initiiert, so dass wir den kuscheligen menschlichen Faktor gleich doppelt zurück bekommen. Zum Anderen arbeiten die „Algorithmen“ weit weniger kompliziert als gedacht, sondern mit klassischem Abgleich von Schlagwörtern bei der Suche nach Themen (wie in der guten alten Bibliothek z.B. In youtube) und mit einfachem Interessenabgleich anhand von Themen und Kontakten (facebook). Diese einfachen Verfahren hängen nicht so sehr von geheimnisvollen oder manipulativen Vorgängen ab, sondern schlicht von sich ständig verbessernden Rechenleistungen der genutzten Maschinen, die die Zielgenauigkeit bei der Auswahl gezeigter Beiträge verbessern. Hier von Pseudo-Selektion und Steigerung zu reden ist albern. Wenn Sie in der Uni-Bibliothek vor dem Regal mit Büchern der Kinderpädagogik stehen reden Sie ja auch nicht von Pseudo-Selektion, nur weil die Bibliothek thematisch geordnet ist und sie in dem Regal nicht die Abenteuergeschichten für Kinder finden.
Unbestreitbar handelt es sich hier um eine intelligente Analyse. Gehen diese über das Deskriptive hinaus und bilden normative Empfehlungen? Man möchte es fast vermuten, aber außer einem, beinahe verschwörungstheoretisch anmutenden Duktus ist nichts konkretes auszumachen. Soll nun die Erstellung und der Zugriff auf Profile insgesamt untersagt werden? Würde das nicht nur weg führen von einem beinahe öffentlichen Missbrauch in die Dark Rooms der Geheimdienste und Mega-Konzernen? Ein wenig mehr Deskriptives und weniger moralisieren hätte dem Artikel nicht geschadet. Wenn man nun über Konsequenzen nachdenkt, dass stellt sich die Frage: Ja, und?
Bei YouTube ist es mir extrem aufgefallen: ich bekomme immer gern politische Inhalte serviert, auch wenn ich völlig anderes gerade gesucht und angesehen habe. Da ich sonst keine social Networks nutze, und beim Surfen im Internet stets anonymisierte Browser benutze, um genau das zu vermeiden, fällt es mir besonders auf. Bei Amazon oder ebay ist mir der Effekt natürlich untergekommen, was ich auch richtig schlimm finde, ist, daß automatisch das nächste Video abgespielt wird. Hat man sich eine Rede im Bundestag angeschaut, kommt danach aber nicht die Gegenrede, sondern eine weitere aus derselben politischen Richtung. Man kann also immer nur eine Meinung hören, nicht verschiedene. Das muß einfach schlimme Auswirkungen haben. Es ist eine Vorstufe von Zensur, denn auch wenn es die konträren Inhalte gibt, man muß ganz aktiv und gegen den Algorithmus danach suchen.