Algorithmic Radicalization: Wenn wir nicht mehr auf die selbe Welt schauen…

…sondern jeder auf die für ihn konstruierte: ein Follow-up zu Algorithmic Media – Putting the Social out of Social Media

Social Media begann einmal mit dem positiv gemeinten Versprechen, uns miteinander ins Gespräch zu bringen. Heute sehen wir zwar alle dieselben Plattformen, aber nicht mehr dieselbe Welt darin repräsentiert. Genau hier setzt dieser Text an.

Als ich ziemlich genau vor einem Jahr einen Beitrag über Algorithmic Media schrieb, ging es darum, wie Plattformen nicht mehr nur Inhalte verteilen, sondern Wahrnehmungen formen. Der Feed entscheidet intransparent, was für wen sichtbar ist. Das war bereits ein Hinweis darauf, dass Öffentlichkeit sich verschiebt oder: zerfällt. Doch der viel entscheidendere Bruch liegt an einer anderen Stelle: in den Kommentarspalten …und der nächste steht auch schon an. Aber Schritt für Schritt.

Die Kommentarspalten sind nicht mehr öffentlich – sie sind individuell arrangiert

Lange galten Kommentare als der Ort, an dem in der Online-Welt etwas wie „das Soziale“ übrig blieb. Man konnte dort erkennen, wie eine Debatte verläuft, welche Emotionen sie auslöst, welche Konflikte sie freilegt. Ungeordnet, manchmal verletzend, aber gemeinsam geteilt.

Heute zeigen Plattformen keine gemeinsamen Diskussionen mehr, sondern individuell kuratierte Kommentarwelten. Zwei Menschen sehen denselben Beitrag und erleben zwei völlig unterschiedliche Debatten unterhalb des gleichen Content-Pieces – und beide halten ihre eigene für die allgemeine. Es wirkt authentisch, aber es ist subjektiv arrangiert.

Diese Veränderung ist nicht zufällig. Sie gehört zum Prozess, den die Forschung inzwischen Algorithmic Radicalization nennt. Radikalisierung beginnt hier nicht bei radikalen Inhalten, sondern bei der Sortierung dessen, was sichtbar bleibt und was verschwindet. Was wir sehen sollen, ist das, was uns am zuverlässigsten emotional hält.

Algorithmische Sichtbarkeit erzeugt Radikalisierung durch Erregung, nicht durch Überzeugung

Das System misst nicht Bedeutung, sondern Erregung. Nicht die Relevanz, sondern die Reaktion.

Inhalte, die starke Gefühle auslösen, die triggern, werden verstärkt. Verstärkung erzeugt Sichtbarkeit. Sichtbarkeit erzeugt weitere Reaktionen. Das Prinzip ist nicht ideologisch, sondern schlicht ökonomisch: Aufmerksamkeit ist die Ressource, die verwertet wird.

Doch weil diese Dynamik vorhersehbar ist, kann sie gezielt eingesetzt werden. Politische Akteure, Organisierte Gruppen, Kampagnenstrategen, Trollnetzwerke – sie alle wissen längst, wie algorithmische Stimulationsschwellen funktionieren. Die Plattform schreibt das Skript nicht, aber sie stellt Bühne, Dramaturgie und Lichttechnik.

Radikalisierung und Polarisierung entsteht online nicht vorrangig, weil Menschen plötzlich extreme Ideen übernehmen, sondern weil das Gemeinsame, der geteilte Wahrnehmungshorizont, langsam verschwindet. Dieser Verlust ist nicht laut. Er ist schleichend, unbewusst. Dass uns der Blick auf die „wahre“ Welt dabei abhanden kommt, fällt uns noch nicht einmal auf.

Algorithmic Radicalization: Öffentlichkeit zerfällt nicht in Konflikt – sie zerfällt in Parallelwelten

Walter Lippmann beschrieb vor einem Jahrhundert, dass wir in mentalen Weltmodellen leben, nicht in der Welt selbst. Heute werden diese Modelle algorithmisch konstruiert und individuell angepasst. Habermas’ Vorstellung von Öffentlichkeit als einem gemeinsamen Raum der Auseinandersetzung wird dadurch zwar nicht zerstört, aber entkernt. Es gibt weiterhin Debatten – aber nicht mehr dieselben, gemeinsamen, sondern sich selbst verstärkende weltbildlich inzestuöse Debatten. Wir bemerken das oft erst, wenn wir versuchen, miteinander zu sprechen – und uns nicht einmal darauf einigen können, wovon wir sprechen.

Draußen sieht die Welt anders aus als im Feed

Vielleicht versteht man die Tragweite erst, wenn man den Bildschirm schließt und die Haustür öffnet, der Algorithmic Radicalization eine analoge Deradikalisierung entgegensetzt. Draußen hält niemand politische Reden im Supermarkt. Menschen stehen nebeneinander in der U-Bahn, teilen denselben Raum, denselben Bus, denselben Himmel. Es gibt dort eine gemeinsame Welt, ohne algorithmische Optimierung. Und zum Glück kämen dort nur die wenigsten auf die Idee, sich gegenseitig Parolen um die Ohren zu brüllen, einander permanent missionieren zu wollen oder andere für ihr verzerrtes Weltbild (im Gegensatz zum eigenen natürlich) herabzuwürdigen. Online? Au contraire…

Online dagegen blickt jede und jeder auf eine andere Welt, ohne wirklich zu sehen. Nicht, weil wir dieses individuelle „Weltsicht“ bewusst gewählt hätten (denn das gerade nicht), sondern weil sie für uns mit maximalen Interaktionspotenzial berechnet wurde. Die Realität im Feed fühlt sich dringlicher an, unmittelbarer, fast existenziell. Und genau deshalb kann sie so schnell an die Stelle des Gemeinsamen treten.

Kommentare als Zwischenschritt

Die Kommentare wird’s auch weiterhin als Steigbügelhalter der Ökonomisierung der Aufmerksamkeit geben. Sie funktionieren wirtschaftlich einfach zu gut und triggern enorm, wenn man uns die „richtigen“ vorauswählt. Dabei ist es heute schon so, dass die Sichtbarkeit der Inhalte stark und maximal intransparent kurartiert ist und Echokammern aus Stahlbeton formt. Im Grunde nach ist der heute stattfindende Content aber immerhin noch nach einem One-to-Many-Prinzip erstellt (wenn auch vor allem von Prosumern).

Nun denken wir aber mal konsequent weiter: Der Algorithmus entscheidet jetzt bereits, welchen Content man sieht (jenen, mit dem man am wahrscheinlichsten interagiert) und spielt einem dazu eine intransparente Auswahl an Kommentaren aus, die einen mit möglichst hoher Wahrscheinlichkeit auf die Palme bringen, um weitere Interaktion zu triggern.

Als Abfallprodukt entsteht dabei das eigene Weltbild – und Unverständnis, warum denn die ganzen Idioten nicht erkennen können oder wollen, „wie es wirklich ist“. Steht doch da.

Was dabei aber immerhin noch – zwar kuratiert ausgespielt, ja – nicht hyperindividualisiert ist, ist der produzierte Content selbst. Das kann noch lustig werden, wenn auch dieser selbst aufs Individuum zugeschnitten generiert und nicht mehr aus Bestehendem kuratiert wird …und wir somit den letzten „Common Ground“ verlieren. Vielleicht wäre es gerade jetzt notwendig, dass jede:r eine gute, alte Zeitung abonniert, sogar zweitrangig, welche.

Die eigentliche Radikalisierung liegt im Verlust des Gemeinsamen

Man verliert die gemeinsame Welt nicht plötzlich. Man verliert sie, indem man vergisst, dass es sie gab. Vielleicht ist das die eigentliche Form von Algorithmic Radicalization: Nicht, dass wir uns voneinander entfernen, sondern dass wir vergessen, dass wir jemals nah beieinander waren und alle auf den gleichen Himmel geschaut haben.

Willkommen in der Matrix.