Rechtes Gedankengut zieht sich immer mehr in die gesellschaftliche Mitte. Besonders in sozialen Medien wie Facebook scheint sich der Hass zu verbreiten. Andreas Benedikt*, Mitarbeiter des saarländischen Verfassungsschutzes, startete hierzu ein Experiment.
Herr Benedikt, wie kam dem Verfassungsschutz die Idee zu dem Experiment?
Wir beschäftigen uns beim Verfassungsschutz hauptsächlich mit Extremismus. Darunter versteht man Ideologien, die darauf abzielen, unseren demokratischen Staat abzuschaffen und durch etwas anderes zu ersetzen, etwa eine kommunistische Diktatur oder ein neues Drittes Reich. Natürlich interessiert uns in diesem Zusammenhang auch, wie Extremisten die sozialen Medien nutzen. Insofern war es für uns naheliegend, uns auch anzuschauen, wie beispielsweise auf Facebook Extremismus verbreitet wird.
Wie lief dieser Versuch genau ab?
Wir haben im November 2018 ein Profil im sozialen Netzwerk Facebook angelegt. Dieser virtuellen Person haben wir verschiedene Attribute zugewiesen. Wir haben unter anderem angegeben, dass sie aus dem Bereich Saarbrücken kommt und sich für die NPD in Burbach, eine rechtsextremistische Band und Frank Franz, den Bundesvorsitzenden der NPD, interessiert. Wir haben uns dann ganz normal in Facebook bewegt: haben Beiträge aus diesen Themengebieten angesehen, gelikt, geteilt und abgewartet, was passiert.
Was ist dann passiert?
Das, was Facebook im sogenannten Newsfeed zurückgespiegelt hat, waren alles ähnliche Inhalte. Facebook hatte mit seinem internen Algorithmus meine Vorlieben analysiert und unmittelbar danach damit begonnen, mir Inhalte anzubieten, die mich interessieren könnten. Die genaue Funktionsweise des Algorithmus ist dabei natürlich nur Facebook selbst bekannt. Allerdings weiß man, dass Beiträge, die in einer bestimmten Gruppe befreundeter Profile öfter angesehen, gelikt oder geteilt werden, auch häufiger in den jeweiligen Profilen angezeigt werden. Und das betraf nicht nur die Beiträge, sondern auch die Freundschaftsvorschläge. Facebook ist ja gerade darauf ausgelegt, Personen, die sich vielleicht kennen könnten, die gleiche Interessen haben, zusammenzubringen. Dort wurden uns dann sehr viele Personen aus dem rechtsextremistischen Umfeld als potenzielle neue „Freunde" angezeigt. Innerhalb kürzester Zeit lebte unsere virtuelle Person in einer Filterblase, die nahezu ausschließlich aus rechtsextremistischen Inhalten und Kontakten bestand.
Wir haben diesen Versuch auch mit einem Salafisten und einem Sympathisanten des sogenannten Islamischen Staates (IS) gemacht. Bei Salafismus erzielt man ähnliche Ergebnisse. Gibt man aber vor, IS-Sympathisant zu sein, bekommt man keine IS-Propaganda mehr angezeigt, sondern Seiten wie „IS-Watch", die Gräueltaten des IS aufdecken und transparent machen wollen. Das zeigt sehr deutlich, dass es offensichtlich möglich ist, die Wirkweise des Algorithmus zu steuern und zu beeinflussen. Inhalte mit Bezügen zum sogenannten Islamischen Staat sind offensichtlich erfolgreich aus Facebook entfernt worden. Das müsste aus unserer Sicht dann auch bei anderen Formen des Extremismus funktionieren.
Haben Sie diesen Versuch nur auf Facebook durchgeführt?
Wir haben uns bei dem Versuch auf Facebook beschränkt, aber es gibt bereits ähnliche Versuche mit Youtube. Da ist es so: Man schaut sich ein Video an, und über die Autoplay-Funktion startet automatisch das nächste Video, wenn man nicht aktiv dagegen steuert. Youtube ist voller Videos über Verschwörungstheorien wie zum Beispiel „Der Weltuntergang steht bevor". Oder es wird verbreitet, eine kleine, einflussreiche Gruppe strebe nach der Weltherrschaft. Dass die Urheber damit „die Juden" meinen, wird dabei ziemlich deutlich. Über Youtube werden zudem ganz offen rechtsextremistische Inhalte, zum Beispiel in Deutschland strafbare Musik, verbreitet. Wenn man nun ein solches Video schaut, startet danach automatisch ein weiteres Verschwörungsvideo beziehungsweise man hört ein rechtsextremistisches Lied nach dem anderen. Der Nutzer muss nicht einmal mehr weitersuchen. Das übernimmt der in Youtube implementierte Algorithmus für ihn. Das führt dann im Prinzip zum gleichen Effekt wie bei Facebook: Für den Konsumenten wird ein kleiner Teil der Welt überproportional in seiner Lebenswirklichkeit repräsentiert. Er denkt, der Weltuntergang stünde bevor oder sein Land sei in ernster Gefahr, weil die Regierung „fremde Invasoren" ins Land holt. Es gibt Menschen, die dann glauben, sie müssten etwas dagegen unternehmen, zum Beispiel einen Bunker bauen oder sich bewaffnen. Die meinen vielleicht, sie müssten gegen „die Fremden" oder „die Regierenden" ihr Land mit Gewalt „verteidigen". Aus Worten werden dann Taten.
Wie beurteilen Sie diese Erkenntnisse?
Das ist aus unserer Sicht natürlich erschreckend. Facebook-Gründer Marc Zuckerberg hat gesagt, er möchte mit Facebook „die beste personalisierte Zeitung der Welt" kreieren. Mit „Zeitung" verbindet man immer ein Medium, das einen objektiven Informationsanspruch erhebt. Was Zuckerberg aber eigentlich gemacht hat, ist, eine riesengroße Marketingmaschine zu entwickeln. Er versucht den Leuten die Beiträge zu zeigen, für die sie sich interessieren, um ihnen letztlich zielgerichtete Werbung einblenden zu können. Das ist an sich ja auch nicht verwerflich. Überhaupt nicht. Man muss es nur wissen – weil der Nebeneffekt natürlich ist, dass dies auch mit extremistischen Beiträgen passiert. Das beunruhigt uns sehr, denn es führt dazu, dass Leute, die sich beispielsweise für die NPD Burbach oder Frank Franz interessieren, auch nur noch solche Inhalte zu sehen bekommen. Wir hatten diesen Versuch nur zehn Tage lang durchgeführt, weil das Ergebnis so eindeutig war. Wenn man Facebook täglich nutzt, um sich extremistische Inhalte anzusehen, führt das dazu, dass man sich eine Filterblase aus extremistischen Inhalten schafft, die letztlich das eigene Denken bestimmt. Ein objektiver Blick auf die Welt ist dann nicht mehr möglich. Aus unserer Sicht kann das der Ursprung einer Veränderung der Sichtweisen und von Radikalisierungsprozessen sein. Wer ständig mit einer Verrohung der Sprache, mit Hass-Postings, konfrontiert wird, verändert auch seine Sprache und sein Denken. Letztendlich kann der Endpunkt dieser Entwicklung dann sein, dass der so beeinflusste Mensch Straftaten in der realen Welt begeht; bis hin zu terroristischen Anschlägen, wie sie sich leider jüngst in Halle oder in Christchurch in Neuseeland ereignet haben.
Ist die Anonymität des Internets Grund für diesen Trend?
Ja, das ist sicherlich einer der Gründe. Menschen trauen sich, offener ihre Meinung zu äußern, wenn sie sich durch Anonymität geschützt fühlen. Allerdings muss man sagen, dass gerade im rechtsextremistischen Bereich die meisten Nutzer ihre Identität offen zu erkennen geben.
Es gibt ja auch immer wieder Stimmen, die sagen, jeder muss im Netz erkennbar und identifizierbar sein. Wer das Internet kennt, weiß, dass es sehr schwer zu reglementieren ist. Zumal Facebook zum Beispiel in seinen AGBs die Nutzer ja sogar jetzt schon verpflichtet, sich mit ihren richtigen Personalien anzumelden. Es gibt diese Pflicht also schon, aber es funktioniert offensichtlich nicht. Das ist ein stumpfes Schwert. Wir würden es eher begrüßen, wenn die Betreiber der sozialen Netzwerke strafrechtlich relevante Inhalte entfernen und die Algorithmen verändern würden. Am Beispiel der nicht mehr vorhandenen IS-Inhalte in Facebook kann man sehen, dass das funktioniert.
Gibt es sonst noch Maßnahmen, dagegen vorzugehen?
Es ist einfach wichtig, dass Leute, die überzeugte Demokraten sind, sich im Internet äußern, um ein Gegengewicht zu extremistischen Inhalten zu setzen.
Wie können sich Bürger selbst oder auch andere – besonders Kinder – gegen solche Einflüsse schützen?
Medienerziehung – sei es im Elternhaus, sei es in der Schule – ist ganz entscheidend.
Das Wichtigste aus unserer Sicht ist dabei, darauf hinzuweisen, dass es solche Algorithmen gibt und es daher keine objektive Berichterstattung in sozialen Netzwerken geben kann, dass die Verteilung der Inhalte letztlich immer ganz stark Marketinggesichtspunkten unterliegt. Das ist der erste Schritt.
Die Leute müssen verstehen, dass sie aus Facebook nicht die Informationen ziehen können, die sie in journalistischen Medien finden können, die redaktionell erstellt wurden und bestimmten Qualitätsstandards unterliegen.
Haben Sie diesen Ausgang erwartet?
Wir bewegen uns seit Jahren in Facebook und kennen die Mechanismen. Daher habe ich durchaus damit gerechnet. Was überrascht hat, ist die kurze Zeit, in der sich die Filterblase schließt.
Welche Gefahren sehen Sie dadurch?
Die Gefahr besteht darin, dass jemand, der sich für extremistische Inhalte interessiert, in kürzester Zeit in eine Filterblase aus extremistischen Inhalten gelangen kann und dadurch in dieser Meinung gestärkt wird. Die Welt wird nicht mehr objektiv wahrgenommen, es gibt nur noch Argumente für eine Sichtweise. Dadurch kann das Denken entstehen, die Welt wäre so, wie sie in all diesen Beiträgen gezeigt wird. Die Posts, die wir gesehen haben, waren eindeutig. Da waren Dinge wie: „Flüchtling, Finger weg von deutschen Frauen" oder „Du wirst nie Deutsche aus Deutschland flüchten sehen – wenn es brenzlig wird, laufen wir nicht in fremde Länder, wir entstauben unsere Waffen und stellen die Ordnung wieder her". Sowas bekommt man da angezeigt, und das klingt alles relativ eindeutig. Wenn jetzt jemand denkt: „Ja, Ordnung wiederherstellen hört sich gut an" und „Waffen" steht auch schon mit drin, dann sind es nur noch wenige Schritte bis zu einer Straftat in der Realität. Das ist der Startpunkt von Radikalisierungsprozessen, die in Gewalt und Terror enden können.
* Name von der Redaktion geändert