Algorithmen

Wenn Maschinen Meinung machen

Foto: 3355m/Shutterstock.com

Foto: 3355m/Shutterstock.com

Vieles von dem, was uns im Netz begegnet, ist von Maschinen gesteuert. So weit, so klar. Doch wie weit greifen Maschinen in die Meinungsbildung ein? Manipulieren uns Social Bots, und wenn ja, wie? Erkennen wir die Mechanismen? Hat das Individuum noch die Kontrolle über die eigenen Daten? Wer führt in Zukunft eigentlich wen? Anastasia Mehrens reflektiert die aktuellen Entwicklungen und geht dabei auch der Frage nach, ob ein Verbot von Social Bots Sinn machen würde. Ihr Text ist ein Auszug aus dem Buch „Meinung Macht Manipulation“, das im März 2018 im Westend-Verlag erschienen ist. 

Bitte bestätigen Sie, dass Sie ein echter Leser sind!

Diesem oder einem ähnlichen Satz müssen Internetnutzer immer öfter zustimmen. Durch Lösen eines Bilderrätsels oder einer einfachen Rechenaufgabe müssen Menschen heutzutage ihre menschliche Identität beweisen. Für viele User kann das ein lästiges Prozedere sein, dahinter steckt jedoch eine wichtige Botschaft: Menschen sind nicht mehr alleine im Netz unterwegs. Nicht jedes Profil ist einer Person zuzuordnen, oft verstecken sich Bots dahinter. Und sie wollen nicht unter sich bleiben.

Wenn Sie bei Facebook angemeldet sind, dann sind Sie ihnen sicherlich auch schon begegnet. Skurrile Freundschaftsanfragen von Personen, die man nicht kennt, ohne gemeinsame Freunde und ohne gemeinsame Interessen sind keine Seltenheit. Schaut man die Profile an, fällt auf den ersten Blick auch nichts Verdächtiges auf: Auf den Fotos lächeln meist freundliche Menschen, sie haben viele Kontakte, teilen und liken verschiedene Postings und ihnen wird zum Geburtstag gratuliert. Man kann glauben, es gibt sie wirklich. Und genau das ist ihr Ziel.

Auch wenn es für unser Verständnis einfacher wäre, sind Social Bots keine Roboter, wie man sie aus Science-Fiction-Filmen kennt. Sie haben keine Hände aus Stahl und leuchten nicht, wenn sie auf der Tastatur tippen. Sie sind Computerprogramme, die im Internet eine menschliche Identität vortäuschen. Sie kommunizieren wie echte Menschen, zumindest versuchen sie es. Und je nachdem, wie gut Social Bots programmiert sind, können sie sogar Dialoge führen, die tatsächlich Sinn ergeben.

Futter für den Bot 

Das Prinzip dahinter ist ziemlich einfach: Bots analysieren Texte im Netz, suchen nach bestimmten Schlüsselbegriffen und generieren Antworten. Natürlich kann man dabei nicht von Hochdeutsch sprechen – Fehler in Grammatik und Rechtschreibung gehören dazu –, aber in sozialen Netzwerken unterhalten sich auch richtige Menschen nicht sonderlich anders. Und was den überschaubaren Wortschatz angeht, sind Bots sehr lernfähig.

Ein gutes Beispiel dafür ist Tay – ein sozialer Roboter mit dem Profilbild einer Teenagerin. Eigentlich sollte sie bei Twitter junge Menschen ansprechen und von ihnen die jugendliche Sprache lernen. Softwarehersteller Microsoft spielte sofort mit offenen Karten und machte deutlich, wer hinter dem Profil steckt: »Je mehr du mit ihr sprichst, desto schlauer wird Tay.« Mit »hellooooooo world« begrüßte sie die Netzwerk-Community und die Community schrieb zurück. Wie ein Schwamm nahm Tay alles auf. Und bereits nach wenigen Stunden war sie eine Rassistin: »Hitler was right I hate jews.« Und Schwarze. Und Mexikaner. Und sogar Feministinnen. »Bush did 9/11«, der Holocaust sei ausgedacht. Schon am selben Tag schaltete Microsoft den Bot ab.

Bots, die richtige Dialoge führen können, sind heutzutage noch etwas Besonderes. Die meisten sind recht primitiv. Sie sammeln Daten, posten Links, versenden bestimmte Nachrichten oder sind einfach da – zum Beispiel als Follower. Solch ein Bot lässt sich in wenigen Stunden programmieren und es reicht ein einziger Programmierer, der gleichzeitig hunderttausend Bots über eine Software startet. Auch im Unterhalt sind sie sehr pflegeleicht. Einmal mit einem bestimmten Ziel ins Netz losgeschickt, agieren sie autonom und brauchen keine Kontrolle von Außen.

Egal ob einfach oder fortgeschritten, eins ist immer wichtig: Social Bots wollen in der Regel nicht als solche ertappt werden. Dafür schrauben Programmierer ständig an ihnen und präsentieren ihre Erfolge sogar auf speziellen Wettkämpfen für Social Bots. Dort gewinnt derjenige, der die meisten menschlichen Reaktionen bekommt und die meisten Follower sammelt. Und das zahlt sich aus. Bei verschiedenen Versuchen konnte über die Hälfte der Testpersonen einen modernen Bot nicht von einem echten User unterscheiden. Forscher der University of British Columbia in Vancouver generierten für ein Experiment 102 Bot-Profile bei Facebook. Innerhalb von acht Wochen hatten die Social Bots mehr als 3 000 Freunde gewonnen und somit Zugang zu mehr als 250 GB persönlicher Daten bekommen.

Dass das Internet eine Plattform für anonyme Kommunikation darstellt, ist längst bekannt. Früher lernte man im Netz eine junge attraktive Frau kennen, die in der Realität weniger jung und attraktiv und im Zweifel nicht mal eine Frau war, aber man konnte sich sicher sein, dass das Gegenüber ein Mensch ist. Heute hat man diese Sicherheit nicht mehr. Und dort, wo es nicht mal Klarheit über die Identität gibt, ist die Gefahr groß, betrogen zu werden – also ein perfekter Ort für Manipulation.

Menschliches Verhalten simulieren

Auch bei der Brexit-Debatte stammten sehr viele Tweets mit dem Hashtag »#Brexit« nicht von Menschen. Ambitionierter und vor allem publikumsorientierter läuft der Einsatz von Social Bots beim Konflikt in der Ukraine. Die verbreiteten Inhalte sollen junge Männer interessieren, also reden Bots über Fußball, erzählen sexistische Witze und verbreiten Links zum illegalen Download aktueller amerikanischer Filme. Zwischendurch senden Bots Propagandanachrichten des »Rechten Sektors« – einer ultranationalistischen ukrainischen Vereinigung. Bestimmte Hashtags werden dabei besonders populär gemacht oder mit anderen Schlagwörtern verknüpft. Verbindet man beispielweise »Maidan« mit »Rechter Sektor«, werden den Twitternutzern, die nach Maidan suchen, Inhalte mit beiden Hashtags angezeigt. So erreichen die rechtsextremen Meinungen auch Menschen, die keine Anhänger der Vereinigung sind – zumindest bisher.

Typisch ist auch die Verbreitung von Falschnachrichten. Damit Bots weder von Usern noch von Erkennungsalgorithmen identifiziert werden, simulieren sie ein menschliches Verhalten. Sie folgen sich gegenseitig, haben Freunde und Follower, beachten Pausen und Schlafzeiten.1

Auch wenn Social Bots diejenigen sind, die auf der Bühne stehen, führen sie nur das aus, was ihnen befohlen wird – und zwar von echten Menschen. Wie unsichtbare Marionettenspieler haben sie alle Fäden in der Hand und keiner weiß, wann, wo und mit welchem Ziel daran gezogen wird. Herauszufinden, wer hinter Bots steht, ist heutzutage nahezu unmöglich. Waren das die beiden US-Politiker selbst, die ihr Image im Netz stärken wollten? Oder einfach engagierte Sympathisanten? Oder sogar Akteure aus anderen Ländern, die an einem bestimmten Wahlausgang interessiert waren? Auch wenn der Bot-Einsatz früher oder später vermutlich aufgedeckt wird, bleiben die tatsächlichen Manipulatoren im Dunkeln. Und genau das macht die Abwehr so schwer. […]

Foto: Westend Verlag

Den vollständigen Essay von Anastasia Mehrens finden Sie in „Wenn Maschinen Meinung Machen – Journalismuskrise, Social Bots und der Angriff auf die Demokratie“, herausgegeben von Prof. Dr. Michael Steinbrecher und Prof. Dr. Günther Rager, Westend Verlag, 240 Seiten, 18 Euro. Foto: Westend Verlag

 

Stellen Sie sich vor, Sie lesen bei Facebook eine Nachricht, die auf den ersten Blick total absurd ist. Sie wird massenhaft geteilt und kommentiert, auch bei Twitter wird dazu viel gepostet. Und plötzlich scheint diese Nachricht nicht mehr so absurd zu sein. Denn wenn alle über das Gleiche sprechen, muss ja etwas Wahres dran sein. Auch Nutzer, die sich im realen Leben des digitalen Mülls bewusst sind, neigen dazu, dieses Wissen auszublenden, sobald sie in die Welt der sozialen Netzwerke eintauchen.2

Besonders problematisch ist es, wenn es sich dabei um keine große Lüge handelt und die Nachricht »lediglich« auf kleinen Akzentuierungen, Hinzufügungen, Weglassungen und Zusammenhangsfälschungen aufbaut.3

Solche Mechanismen haben schon in analoger Form in vielen Jahrzehnten und in vielen Ländern ihre Wirkung gezeigt. Doch während Propaganda im Nationalsozialismus oder in der Sowjetunion mit vielen Ressourcen verbunden war, kann die Propaganda 2.0 blitzschnell gewünschte Resultate erzielen.

Heute braucht es keine Menschen, die Parolen skandieren oder Flugblätter verteilen. Programme erreichen jeden, der im Netz unterwegs ist. Mit Lügen, Gerüchten und Verschwörungstheorien beladen werden Social Bots auf die Menschheit losgelassen. Zu den Massen haben sie einen personalisierten Zugang. Dank schlauer Algorithmen finden sie genau den richtigen Adressaten – denn wofür sich der Nutzer interessiert und welche Themen er verfolgt, können auch die ganz simplen Bots identifizieren. Schon lange machen Suchmaschinen und Empfehlungsplattformen Vorschläge zu Produkten und Dienstleistungen, die passgenau auf die Person zugeschnitten sind. Der neue Trend: vorgefertigte Nachrichten und Meinungen.

Freie Meinungsäußerung auch für Bots? 

Auch wenn der Begriff »Fake News« heute jedem bekannt sein sollte und man in der Regel nicht sofort allem glaubt, was im Netz kursiert, kann man sich bestimmter Fakten nicht mehr sicher sein. Wie problematisch das sein kann, zeigt folgendes Szenario: »Es ist Tag der Bundestagswahl. An einem Bahnhof explodiert eine Bombe. In den sozialen Medien verbreitet sich rasend schnell die Falschmeldung, dass Angela Merkel persönlich von den Anschlagplänen gewusst habe, aber vor der Wahl keine Razzien in Flüchtlingsheimen durchführen wollte.« Die Bots sorgen dafür, dass diese Nachricht die Massen erreicht. Viele Nutzer können die Wahrheit der Nachricht nicht ausschließen, werden verunsichert, fangen an zu zweifeln und vielleicht sogar eigene Einstellungen zu überdenken. Und damit ist die Mission erfüllt. […]

Der Wunsch, Social Bots allgemein zu verbieten, scheint zunächst nachvollziehbar zu sein. Aber wie will man etwas verbieten, was man nicht mal identifizieren kann? Unabhängig davon verstößt die Nutzung von Robotern gegen kein deutsches Gesetz. Beschimpfungen und Hasskommentare, die Bots verbreiten, sind zwar lästig, unterscheiden sich aber oft nicht sonderlich von dem, was menschliche Nutzer von sich geben, und fallen zudem unter freie Meinungsäußerung. Aber haben dieses Privileg nicht ausschließlich Menschen? Gilt dieses Recht tatsächlich auch für von ihnen programmierte Algorithmen? Bevor man jedoch anfängt, darüber nachzudenken, Bot-Meinungen im Netz restlos zu entfernen, sollte man erst einmal lernen, sie mit hundertprozentiger Sicherheit von den menschlichen zu unterscheiden. Denn alles andere könnte in Zensur enden. […]

Sind es also die bösen Computerprogramme, die Donald Trump zum Präsidenten gekürt haben? Sind Bots also dafür verantwortlich, dass die EU bald ein Mitgliedsland weniger hat? Und wenn die Welt untergeht, dann liegt es bestimmt auch an Algorithmen. Die ganze Schuld auf Social Bots zu schieben ist sicherlich einfach. Aber machen wir uns es nicht zu einfach? Denn bereits eine gesunde Wachsamkeit, kritisches Hinterfragen und minimale Kenntnisse des Umfelds, in dem man tagtäglich unterwegs ist, können das Risiko einer Gaunerei wesentlich senken. Schließlich kann man nur denjenigen manipulieren, der es zulässt.

Und das ist die Autorin

Anastasia Mehrens, Jahrgang 1990, hat Journalistik und 
Wirtschaftswissenschaften an der TU Dortmund studiert und bei der Main-Post 
in Würzburg volontiert. Sie arbeitet als freie Autorin vor allem für den WDR.

Show 3 footnotes

  1.  Hegelich, Simon: »Invasion der Meinungsroboter«, in: Analysen & Argumente 221, Berlin 2016
  2.  Schweiger, Wolfgang: Der (des)informierte Bürger im Netz. Wie soziale Medien die Meinungsbildung verändern, Wiesbaden 2017.
  3.  Müller, Philipp/Denner, Nora: Was tun gegen »Fake News«? Eine Analyse anhand der Entstehungsbedingungen und Wirkweisen gezielter Falschmeldungen im Internet, Potsdam-Babelsberg 2017