Gefahr für Demokratie?

So beeinflussen Social Bots online unsere Meinung

Web
18.02.2019 08:09

Können Social Bots tatsächlich Meinung machen? Wissenschaftliche Belege dafür gibt es noch nicht. Forscher der Universität Duisburg-Essen haben daher nun in einem virtuellen Experiment den Einfluss dieser Software-Roboter in sozialen Medien untersucht. Ergebnis: Schon wenige Bots reichen, um in einem Netzwerk die Stimmung zu lenken.

Social Bots sind Computerprogramme, die in sozialen Medien wie echte Nutzer agieren und automatisiert Botschaften verbreiten. Es heißt, mit Bots ließen sich Themen künstlich pushen und Debatten verfälschen; auch könnten sie politische Wirkung entfalten. Das wird etwa bei der anstehenden Europawahl befürchtet. „Wie stark Bots Nutzer beeinflussen können, war bislang nicht nachzuweisen, weil die wissenschaftlichen Methoden fehlten“, erklärt Informatiker und Projektleiter Björn Ross.

Falscher Eindruck zur Stimmungslage
„Wir haben daher ein Netzwerk mit tausend virtuellen Akteuren simuliert und angenommen, dass die Meinungen zu einem Thema 50:50, positiv und negativ, sind. In der Hälfte der Fälle gewinnt eine Seite die Oberhand - ohne dass Bots im Spiel sind“, sagt Ross.

„Aus der Forschung zur sogenannten Schweigespirale wissen wir,“ sagt Co-Autor Dr. German Neubaum „dass Menschen sich weniger trauen, ihre Meinung zu vertreten, wenn sie sich damit in der Minderheit wähnen. Deswegen haben wir untersucht, wie Bots eine solche Spirale auslösen können.“

Was das Team herausfand: Bereits eine geringe Anzahl von zwei bis vier Prozent Bots reichen, dass Nutzer in einer kontroversen Diskussion lieber still sind. Dadurch steigt die Wahrscheinlichkeit von 50 Prozent auf zwei Drittel, dass sich die von den Robotern unterstützte Meinung durchsetzt. Ein falscher Eindruck zur Stimmungslage entsteht.

Perfekte Täuschung
„Wie erfolgreich Bots Einfluss nehmen, so Ross, hängt unter anderem von drei Faktoren ab: Wie viele Verbindungen gibt es zwischen den Nutzern eines Netzwerks? Wo werden die Bots in diesem platziert, zentral oder am Rand? Und vor allem, sind sie so gut programmiert, dass sie wie ein Mensch agieren?“

Noch sind Social Bots nicht so vollkommen, dass sie sich nicht erkennen lassen, sagen die Forscher. Doch wahrscheinlich werden sie nach und nach optimiert - auch für wenig wünschenswerte Zwecke wie Täuschungen. Und dann wären Software-Roboter tatsächlich eine Gefahr für die Demokratie.

 krone.at
krone.at
Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele