Fabian Nicolay / 27.03.2018 / 06:15 / Foto: Thomas Edwards / 3 / Seite ausdrucken

Facebook-Wars (2): Das Medium als Aufheizer

Von Fabian Nicolay.

Nicht der Konsument und sein Nutzerverhalten sind das Problem, sondern die Algorithmen, die ihn stigmatisieren, indem sie ihm schmutzige, verfolgbare Inhalte anheften, die er autonom wahrscheinlich nie hätte auffinden wollen. Die von den sozialen Netzwerken eingesetzten Mechanismen der Künstlichen Intelligenz (KI) haben ungewollte Nebenwirkungen. Sie sind wie Haarwuchsmittel, das die Libido absenkt.

Statt – wie eigentlich beabsichtigt – den Nutzern der sozialen Netzwerke und Medien (nur) personalisierte, bedarfsgerechte Konsumvorschläge zu machen, indem die Vorlieben jedes einzelnen so analysiert, verglichen und gespeichert werden, dass sich zielgerichtet Steigerungspotenziale beim Konsum erzielen lassen, senkt der Algorithmus unbeabsichtigt auch die Werbe-Attraktivität des Kunden, weil die Tendenz seiner sozialen und politischen Vorlieben durch immer stärkere Impulse der empfohlenen (politischen) Inhalte radikalisiert wird.

Man kann davon ausgehen, dass eine gewisse Affinität zu rechten oder linken Inhalten dazu ausreicht, um das jeweils radikalisierende Vorschlagswesen in Gang zu setzen. Dabei spielt es keine Rolle, ob der Kunde tatsächlich empfänglich für Radikalisierung ist oder nicht: Das Vorschlagswesen skandalisiert den Beziehungs-Zusammenhang der betreffenden Person automatisch, die infolgedessen in ein immer tieferes Loch sozialer Entfremdung gezogen wird, sobald sie den Inhalten folgt. Als Konsequenz seiner durch das Medium geförderten Radikalisierung wird der Nutzer zur persona non grata, als Werbekunde unbrauchbar und als „Radikaler“ in den Netzwerken identifizierbar. Seine Nutzerhistorie und sein Profil sind als Fußabdrücke seines Medienkonsums abrufbar und käuflich. In den Händen repressiver Strukturen bedroht dies seine individuelle Freiheit.

Das Auffinden immer radikalerer Inhalte durch das algorithmen-gesteuerte Vorschlagswesen ist keineswegs nur auf das direkte Such- und Rezeptionsverhalten des Nutzers zurückzuführen, sondern auf die Verknüpfung solcher Inhalte durch die Künstliche Intelligenz, die dazu programmiert wurde, generell Steigungspotenziale aufzufinden und anzubieten, egal ob es sich um Vorlieben für Produkte oder soziale Angebote (zum Beispiel Meinungen) handelt. Das Folgeproblem: Klassische (Marken-)Werbung lässt sich erstens im Umfeld radikalisierten Gedankenguts nicht mehr gut platzieren, zweitens richten sich die Eindämmungsmaßnahmen der herrschenden Eliten genau gegen jene nun identifizierbaren, politisch unbequemen Konsumenten. Der Algorithmus kannibalisiert seinen eigentlichen Selbstzweck.

Der Allgorrithmus als Aufpeitscher

Mitte 2017 wurden pro Minute 500 Stunden Videos auf die Plattform Youtube hochgeladen. Um aus dieser Unmenge an Daten relevante Vorschläge für seine Nutzer zu generieren, fungiert die Plattform quasi als allwissender Kurator. Genau hier liegt das Problem: YouTube kennt alle Inhalte, kann sie generisch sortieren und die relevanten Inhalte zielgerichtet vorschlagen, da die Plattform die aus den Sucheingaben und der individuellen Abspielhistorie herausgefilterten Vorlieben jedes einzelnen Nutzers kennt.

So ein Einzelnutzer hätte nicht die Fähigkeit, mit einer spezifischen Suche im gigantischen, ungeordneten Haufen an Daten für ihn relevante Inhalte aufzufinden. Somit wäre es ausgeschlossen, dass eine flächendeckende Gleichschaltung durch radikalisierte Inhalte bei YouTubern stattfindet, die eine gleiche Affinität zu speziellen Inhalten haben. Will heißen: Das Vorschlagswesen über Algorithmen ist ein Problem, weil der vorschlagende Kurator alle Inhalte kennt und sofort verfügbar macht. Somit findet die informationstheoretisch so wertvolle Verknappung nicht statt, sondern eine Pseudo-Selektion, deren Fokus auf Steigerungspotenzial und Eskalation liegt.

Der menschliche Faktor fehlt den algorithmen-gesteuerten Plattformen: die Begrenztheit menschlicher Auffassungsgabe, Mangel an Effizienz, zeitliche und physische Limitierung. Ursprünglich als Technik zielgerichteter Werbung gedacht, wird der Algorithmus selbst zum Aufheizer von hitzig geführten Diskursen, zum Aufpeitscher radikalen Gedankenguts und zum Verbreiter von Verschwörungstheorien. Der Konsument wird wahnhaft in ein Universum von Skandalen und Fatalismen katapultiert, weil die ihm vorgeschlagenen Inhalte eine Form der Radikalität annehmen, die massiver ist als seine ursprüngliche Ausgangslage. Der Konsument solcher Inhalte befindet sich unter einer Glasglocke, die er passiv nicht verlassen kann, zumal ihn seine rezipierten Inhalte verfolgen.

Aktionistische Eindämmungs-Versuche

Der Veranlasser dieser Wechselwirkung ist also nicht der Rezipient, sondern die KI des Mediums selbst. Die Algorithmen der sozialen Netzwerke stigmatisieren ihre Konsumenten, indem sie ihnen schmutzige Inhalte anheften.

Wir befinden uns in der fortgeschrittenen Phase der Entwicklung, in der die Maßnahmen der Eliten sich bereits gegen die ursprüngliche Verfassung des Mediums richten und die Machthaber das revolutionäre Potenzial der Technik hektisch und aktionistisch einzudämmen versuchen. 

Bei den politisch veranlassten Maßnahmen gegen „Hate Speech“ handelt es sich nicht um den Versuch, ethisch-moralische Werte wieder zu etablieren. Längst gehen die Löschungen und die Zensur darüber hinaus: Unliebsame Kritik, störende Zwischenrufe, aber auch zitierende Berichterstattung oder Satire fallen gleichsam der ungelenken Zensur zum Opfer. Egal, ob der Algorithmus und seine Helfeshelfer mit Augenmaß an die Löschungen gehen: Der Politik geht es schlicht um Machterhalt und Deutungshoheit.

Fabian Nicolay ist Kommunikationsdesigner in Berlin.

 

Facebook-Wars (1): Social-Media als Kampf-Roboter

Facebook-Wars (3): Aus Convenience wird Repression

In der nächsten Folge lesen Sie morgen: Die Demokratie läuft Gefahr, von der „KI“ abgeschafft zu werden. Der Startbutton wurde schon gedrückt.

Einer der besten Vorträge zum Thema von Zeynep Tufekci 

Facebook wirft Cambridge Analytica raus

The techlash against Amazon, Facebook and Google—and what they can do

 

Sie lesen gern Achgut.com?
Zeigen Sie Ihre Wertschätzung!

via Direktüberweisung
Leserpost

netiquette:

Jens Keller / 27.03.2018

„Der menschliche Faktor fehlt den algorithmen-gesteuerten Plattformen“. Zum Einen werden die Zensurmassnahmen durch Kahanes Team ja von echten Personen und nicht von irgendwelchen Bots initiiert, so dass wir den kuscheligen menschlichen Faktor gleich doppelt zurück bekommen. Zum Anderen arbeiten die „Algorithmen“ weit weniger kompliziert als gedacht, sondern mit klassischem Abgleich von Schlagwörtern bei der Suche nach Themen (wie in der guten alten Bibliothek z.B. In youtube) und mit einfachem Interessenabgleich anhand von Themen und Kontakten (facebook). Diese einfachen Verfahren hängen nicht so sehr von geheimnisvollen oder manipulativen Vorgängen ab, sondern schlicht von sich ständig verbessernden Rechenleistungen der genutzten Maschinen, die die Zielgenauigkeit bei der Auswahl gezeigter Beiträge verbessern. Hier von Pseudo-Selektion und Steigerung zu reden ist albern. Wenn Sie in der Uni-Bibliothek vor dem Regal mit Büchern der Kinderpädagogik stehen reden Sie ja auch nicht von Pseudo-Selektion, nur weil die Bibliothek thematisch geordnet ist und sie in dem Regal nicht die Abenteuergeschichten für Kinder finden.

Martin Landvoigt / 27.03.2018

Unbestreitbar handelt es sich hier um eine intelligente Analyse. Gehen diese über das Deskriptive hinaus und bilden normative Empfehlungen? Man möchte es fast vermuten, aber außer einem, beinahe verschwörungstheoretisch anmutenden Duktus ist nichts konkretes auszumachen. Soll nun die Erstellung und der Zugriff auf Profile insgesamt untersagt werden? Würde das nicht nur weg führen von einem beinahe öffentlichen Missbrauch in die Dark Rooms der Geheimdienste und Mega-Konzernen? Ein wenig mehr Deskriptives und weniger moralisieren hätte dem Artikel nicht geschadet. Wenn man nun über Konsequenzen nachdenkt, dass stellt sich die Frage: Ja, und?

Albert Pflüger / 27.03.2018

Bei YouTube ist es mir extrem aufgefallen: ich bekomme immer gern politische Inhalte serviert, auch wenn ich völlig anderes gerade gesucht und angesehen habe. Da ich sonst keine social Networks nutze, und beim Surfen im Internet stets anonymisierte Browser benutze, um genau das zu vermeiden, fällt es mir besonders auf.  Bei Amazon oder ebay ist mir der Effekt natürlich untergekommen,  was ich auch richtig schlimm finde, ist, daß automatisch das nächste Video abgespielt wird. Hat man sich eine Rede im Bundestag angeschaut, kommt danach aber nicht die Gegenrede, sondern eine weitere aus derselben politischen Richtung. Man kann also immer nur eine Meinung hören, nicht verschiedene. Das muß einfach schlimme Auswirkungen haben. Es ist eine Vorstufe von Zensur, denn auch wenn es die konträren Inhalte gibt, man muß ganz aktiv und gegen den Algorithmus danach suchen.

Leserbrief schreiben

Leserbriefe können nur am Erscheinungstag des Artikel eingereicht werden. Die Zahl der veröffentlichten Leserzuschriften ist auf 50 pro Artikel begrenzt. An Wochenenden kann es zu Verzögerungen beim Erscheinen von Leserbriefen kommen. Wir bitten um Ihr Verständnis.

Verwandte Themen
Fabian Nicolay / 05.12.2021 / 16:00 / 23

Nierentisch und Gewaltenteilung

Die dreibeinige Konstruktion des demokratischen Nachkriegsdeutschlands nannte man, der Idee des Philosophen Charles de Montesquieu folgend, „Gewaltenteilung“. Sie passte zum populären Nierentisch und bestach durch…/ mehr

Fabian Nicolay / 02.12.2021 / 16:00 / 19

Plötzlich wieder „Gehorsam“

„Gehorsam“, das deutsche Ur-Unwort, der ewig verweigerte Orgasmus einer frigiden Kulturnation im Klemmgriff ihrer „Erinnerungskultur“. Jetzt endlich kann er wieder eingefordert werden, hoch offiziell. Momentan…/ mehr

Fabian Nicolay / 28.11.2021 / 16:00 / 37

Klandestines Handeln als Politikprinzip

Wer erwartet, dass ein autoritärer Staat ausruft: „Ich bin wieder da, verhindert mich“, ist auf das romantisch-westdeutsche Wunschdenken einer zutiefst feigen und naiven Spätgeborenen-Generation hereingefallen.…/ mehr

Fabian Nicolay / 21.11.2021 / 16:00 / 49

Genosse Frank-Walter: Er denkt, wie er spricht

Frank-Walter Steinmeier ist ein Mann der Doktrin. Er denkt, wie er spricht. Dabei erscheint er weder groß noch staatsmännisch. Es umgibt ihn eine Aura des…/ mehr

Fabian Nicolay / 06.11.2021 / 06:00 / 201

Apartheid für Ungeimpfte, Rauchende, Skifahrende

Die staatlich organisierte Trennung von Menschengruppen hat viele willkürliche Gesichter. Sie kann hart enthemmt auftreten, wie einst in Südafrika, oder eher subtil taktierend, wie heute…/ mehr

Fabian Nicolay / 31.10.2021 / 16:00 / 34

Wenn Zurückrudern alternativlos wird

Das Zurückrudern ist symptomatisch für eine Politik, die sich nicht um die Folgen langfristiger Ziele kümmern muss und diese nicht erklären oder verantworten will. Auch…/ mehr

Fabian Nicolay / 24.10.2021 / 16:00 / 28

Wie die EU unartige Kinder erziehen will

Es ist ein doppelter Skandal. Das polnische Verfassungsgericht urteilte kürzlich, dass einige EU-Gesetze als Verstoß gegen die polnische Verfassung zu werten sind. Nun kontert die…/ mehr

Fabian Nicolay / 13.10.2021 / 12:00 / 143

Der Witz mit der Steckdose

Über Jahrzehnte hat sich das Gros der Deutschen den Verheißungen der Nachhaltigkeits-Utopien hingegeben. Jetzt wird die Energie wie vorhergesagt so knapp und teuer, dass allmählich…/ mehr

Unsere Liste der Guten

Ob als Klimaleugner, Klugscheißer oder Betonköpfe tituliert, die Autoren der Achse des Guten lassen sich nicht darin beirren, mit unabhängigem Denken dem Mainstream der Angepassten etwas entgegenzusetzen. Wer macht mit? Hier
Autoren

Unerhört!

Warum senken so viele Menschen die Stimme, wenn sie ihre Meinung sagen? Wo darf in unserer bunten Republik noch bunt gedacht werden? Hier
Achgut.com