Von Fabian Nicolay.
Nicht der Konsument und sein Nutzerverhalten sind das Problem, sondern die Algorithmen, die ihn stigmatisieren, indem sie ihm schmutzige, verfolgbare Inhalte anheften, die er autonom wahrscheinlich nie hätte auffinden wollen. Die von den sozialen Netzwerken eingesetzten Mechanismen der Künstlichen Intelligenz (KI) haben ungewollte Nebenwirkungen. Sie sind wie Haarwuchsmittel, das die Libido absenkt.
Statt – wie eigentlich beabsichtigt – den Nutzern der sozialen Netzwerke und Medien (nur) personalisierte, bedarfsgerechte Konsumvorschläge zu machen, indem die Vorlieben jedes einzelnen so analysiert, verglichen und gespeichert werden, dass sich zielgerichtet Steigerungspotenziale beim Konsum erzielen lassen, senkt der Algorithmus unbeabsichtigt auch die Werbe-Attraktivität des Kunden, weil die Tendenz seiner sozialen und politischen Vorlieben durch immer stärkere Impulse der empfohlenen (politischen) Inhalte radikalisiert wird.
Man kann davon ausgehen, dass eine gewisse Affinität zu rechten oder linken Inhalten dazu ausreicht, um das jeweils radikalisierende Vorschlagswesen in Gang zu setzen. Dabei spielt es keine Rolle, ob der Kunde tatsächlich empfänglich für Radikalisierung ist oder nicht: Das Vorschlagswesen skandalisiert den Beziehungs-Zusammenhang der betreffenden Person automatisch, die infolgedessen in ein immer tieferes Loch sozialer Entfremdung gezogen wird, sobald sie den Inhalten folgt. Als Konsequenz seiner durch das Medium geförderten Radikalisierung wird der Nutzer zur persona non grata, als Werbekunde unbrauchbar und als „Radikaler“ in den Netzwerken identifizierbar. Seine Nutzerhistorie und sein Profil sind als Fußabdrücke seines Medienkonsums abrufbar und käuflich. In den Händen repressiver Strukturen bedroht dies seine individuelle Freiheit.
Das Auffinden immer radikalerer Inhalte durch das algorithmen-gesteuerte Vorschlagswesen ist keineswegs nur auf das direkte Such- und Rezeptionsverhalten des Nutzers zurückzuführen, sondern auf die Verknüpfung solcher Inhalte durch die Künstliche Intelligenz, die dazu programmiert wurde, generell Steigungspotenziale aufzufinden und anzubieten, egal ob es sich um Vorlieben für Produkte oder soziale Angebote (zum Beispiel Meinungen) handelt. Das Folgeproblem: Klassische (Marken-)Werbung lässt sich erstens im Umfeld radikalisierten Gedankenguts nicht mehr gut platzieren, zweitens richten sich die Eindämmungsmaßnahmen der herrschenden Eliten genau gegen jene nun identifizierbaren, politisch unbequemen Konsumenten. Der Algorithmus kannibalisiert seinen eigentlichen Selbstzweck.
Der Allgorrithmus als Aufpeitscher
Mitte 2017 wurden pro Minute 500 Stunden Videos auf die Plattform Youtube hochgeladen. Um aus dieser Unmenge an Daten relevante Vorschläge für seine Nutzer zu generieren, fungiert die Plattform quasi als allwissender Kurator. Genau hier liegt das Problem: YouTube kennt alle Inhalte, kann sie generisch sortieren und die relevanten Inhalte zielgerichtet vorschlagen, da die Plattform die aus den Sucheingaben und der individuellen Abspielhistorie herausgefilterten Vorlieben jedes einzelnen Nutzers kennt.
So ein Einzelnutzer hätte nicht die Fähigkeit, mit einer spezifischen Suche im gigantischen, ungeordneten Haufen an Daten für ihn relevante Inhalte aufzufinden. Somit wäre es ausgeschlossen, dass eine flächendeckende Gleichschaltung durch radikalisierte Inhalte bei YouTubern stattfindet, die eine gleiche Affinität zu speziellen Inhalten haben. Will heißen: Das Vorschlagswesen über Algorithmen ist ein Problem, weil der vorschlagende Kurator alle Inhalte kennt und sofort verfügbar macht. Somit findet die informationstheoretisch so wertvolle Verknappung nicht statt, sondern eine Pseudo-Selektion, deren Fokus auf Steigerungspotenzial und Eskalation liegt.
Der menschliche Faktor fehlt den algorithmen-gesteuerten Plattformen: die Begrenztheit menschlicher Auffassungsgabe, Mangel an Effizienz, zeitliche und physische Limitierung. Ursprünglich als Technik zielgerichteter Werbung gedacht, wird der Algorithmus selbst zum Aufheizer von hitzig geführten Diskursen, zum Aufpeitscher radikalen Gedankenguts und zum Verbreiter von Verschwörungstheorien. Der Konsument wird wahnhaft in ein Universum von Skandalen und Fatalismen katapultiert, weil die ihm vorgeschlagenen Inhalte eine Form der Radikalität annehmen, die massiver ist als seine ursprüngliche Ausgangslage. Der Konsument solcher Inhalte befindet sich unter einer Glasglocke, die er passiv nicht verlassen kann, zumal ihn seine rezipierten Inhalte verfolgen.
Aktionistische Eindämmungs-Versuche
Der Veranlasser dieser Wechselwirkung ist also nicht der Rezipient, sondern die KI des Mediums selbst. Die Algorithmen der sozialen Netzwerke stigmatisieren ihre Konsumenten, indem sie ihnen schmutzige Inhalte anheften.
Wir befinden uns in der fortgeschrittenen Phase der Entwicklung, in der die Maßnahmen der Eliten sich bereits gegen die ursprüngliche Verfassung des Mediums richten und die Machthaber das revolutionäre Potenzial der Technik hektisch und aktionistisch einzudämmen versuchen.
Bei den politisch veranlassten Maßnahmen gegen „Hate Speech“ handelt es sich nicht um den Versuch, ethisch-moralische Werte wieder zu etablieren. Längst gehen die Löschungen und die Zensur darüber hinaus: Unliebsame Kritik, störende Zwischenrufe, aber auch zitierende Berichterstattung oder Satire fallen gleichsam der ungelenken Zensur zum Opfer. Egal, ob der Algorithmus und seine Helfeshelfer mit Augenmaß an die Löschungen gehen: Der Politik geht es schlicht um Machterhalt und Deutungshoheit.
Fabian Nicolay ist Kommunikationsdesigner in Berlin.
Facebook-Wars (1): Social-Media als Kampf-Roboter
Facebook-Wars (3): Aus Convenience wird Repression
In der nächsten Folge lesen Sie morgen: Die Demokratie läuft Gefahr, von der „KI“ abgeschafft zu werden. Der Startbutton wurde schon gedrückt.
Einer der besten Vorträge zum Thema von Zeynep Tufekci
Facebook wirft Cambridge Analytica raus
The techlash against Amazon, Facebook and Google—and what they can do