Image: Wie Bots Meinung machenFERCHAUFERCHAU„Social Bots“ haben großen Einfluss auf die Stimmung in einem Diskussionsforum. | PhonlamaiPhoto
TechnikDas Schweigen im Chat

Wie Bots Meinung machen

Lesezeit ca.: 4 Minuten
Rüdiger Vossberg

Rüdiger Voßberg

freier Journalist

Wie viele „Social Bots“ sind nötig, um die Stimmung in einem Diskussi­ons­forum für die eigenen Zwecke zu kippen? Eine belastbare Antwort auf diese Frage hat nun ein interdis­zi­pli­näres Team der Universität Duisburg-Essen (UDE) durch mathemati­sche Simulationen herausge­funden. Im Interview erläutert der Informatiker und Projektleiter Björn Ross das verblüffende Studiener­gebnis.

02. Juli 2019
Björn Ross

Welches soziale Netzwerk haben Sie für Ihr virtuelles Experimen­tier­feld nachgebaut, Herr Ross?

Kein bestimmtes. Wir haben für unsere Zwecke ein eigenes, allgemeines mathemati­sches Modell simuliert, in dem tausend Akteure miteinander agieren.

Und wen stellen die vielen Akteure dar?

Unsere Forschungs­ar­beit basiert auf dem psycholo­gi­schen Konzept der so genannten „Schweige­spi­rale“. Danach hängt die Bereitschaft der meisten Menschen öffentlich ihre Meinung zu äußern davon ab, wie sie selbst das umgebende Meinungs­klima einschätzen. Widerspricht die eigene Meinung der als vorherrschend betrachteten Meinung, so hat er oder sie Hemmungen, die eigene, konträre Meinung zu äußern. Und zwar umso stärker, je ausgeprägter dieser Gegensatz wird. Deshalb der Begriff der Spirale.

Zu welchem Ergebnis kommt Ihre Simulation?

Wenn nur zwei bis vier Prozent der Akteure Bots sind, setzt sich deren Meinung doppelt so häufig durch wie die Gegenmei­nung. Diesen Prozess kann die Farbe der Minderheit im Experiment nicht mehr umkehren.

Wie funktioniert das Experiment?

Die virtuelle Meinung der Akteure kann durch die Farben rot und grün beschrieben werden. So arbeitet unser simuliertes Forum völlig unabhängig von der Situation und dem Thema. Zu Beginn herrscht eine etwa gleiche Meinungs­ver­tei­lung von roten und grünen Akteuren im Netzwerk. Einige Akteure darunter sind auch farblos gehalten – sie sind nicht bereit, ihre Meinung zu äußern. Die Eigenschaften der Akteure werden zufällig verteilt: jeder Akteur erhält einen statisti­schen Wert zwischen 0 und 1, der die Bereitschaft festlegt, wie oft er sich selbst zensiert. Die Nuller-Kandidaten äußern sich dauernd, alle anderen weniger häufig. Wer das genau ist, wird zu Beginn eines jeden Durchlaufs der Simulation zufällig bestimmt.

Und wie funktionieren die Bots im Experiment?

Sie zeigen allen immer ihre eigene Farbe an, egal ob sie in der Minderheit sind oder nicht. Sie lassen sich von den Meinungen anderer Akteure auch nicht beeinflussen.

Der Chat kann beginnen...

Dann werden viele hunderte Simulati­ons­läufe gerechnet. Alle Akteure beobachten ständig die Meinungs­äu­ße­rungen (also ich bin grün, ich bin rot) ihrer Nachbarn im Netzwerk. Von den Akteuren, die sich im Netzwerk nicht äußern, bleibt die Farbe den anderen gegenüber verborgen. Wird nun rot häufiger offenbart als grün, steigt im Netzwerk auch die Wahrschein­lich­keit der Äußerungs­be­reit­schaft anderer Roter. In diesem Falle steigt die Meinungs­si­cher­heit der roten Akteure, weil sie von der Mehrheit geteilt wird. Wenn das Umfeld nun eine andere Meinung hat als ich selber, sinkt auch meine Bereitschaft meine Meinung zu äußern.

Wenn ein Akteur eine Meinungs­si­cher­heit von 0,4 hat, wovon ist es nun abhängig, dass und wann sich dieser im Netzwerk äußert?

Die Akteure passen ihre Meinungs­si­cher­heit immer wieder an, je nachdem, wie sie ihr Umfeld wahrnehmen. Liegt ihre Meinungs­si­cher­heit über ihrer Bereitschaft zur Selbstzensur, so äußern sie ihre Meinung. Sonst nicht.

Ist das so einfach?

Im Prinzip ja. Da die Bots quasi im Dauerfeuer ihre Farbe offenbaren, übernimmt deren Farbe häufig auch die Mehrheit im Netzwerk. Bei den nicht manipulierten Netzen, also den Netzen ohne Bots, setzten sich die roten und grünen Meinungen nach den vorgegebenen Durchläufen und Konstella­tionen in den Netzwerken durch Zufall etwa gleich häufig durch.

Was macht Sie so sicher, dass Ihre Algorithmen tatsächlich das Verhalten einer menschli­chen Schweige­spi­rale darstellen?

Hundertpro­zentig sicher kann man sich natürlich nicht sein. Jede Situation ist anders. Aber dass unsere Algorithmen einen Ausschnitt der Realität abbilden, wissen wir, weil sie auf Forschungs­er­geb­nissen aus der Sozialpsy­cho­logie und Kommunika­ti­ons­wis­sen­schaft basieren. Dort wird die Schweige­spi­rale seit Jahrzehnten diskutiert, und es wurde gezeigt, dass sich Nutzer auch durch Inhalte in ihrer Meinungs­si­cher­heit beeinflussen lassen, die sie in den sozialen Medien sehen.

Welchen Einfluss hat die Vernetzung auf das Ergebnis?

Einer der wichtigsten Faktoren zum Durchsetzen einer Meinung sind die zentrale Position im Netzwerk und wie stark die Knotenpunkte unterein­ander vernetzt sind. In einer stärker vernetzten Welt setzen sich Mehrheiten noch schneller durch. Dort bleiben nur wenige Minderheits­mei­nungen übrig, die auch noch geäußert werden.

Woran kann man Bots in realen sozialen Netzwerken erkennen?

Ein Bot wird in einer längeren Diskussion einen anderen Menschen nicht davon überzeugen, dass dieser sich gerade auch mit einem Menschen unterhält. Davon, dass solche Programme jemanden in Foren politisch überzeugen können, ist die Technik noch Jahrzehnte entfernt. Aber je menschli­cher das Verhalten von Bots wird, desto effektiver können sie natürlich agieren. Dann wären sie tatsächlich auch eine Gefahr für die Demokratie.