Soziale Medien: Demokratie in Gefahr?

buntes leicht abstraktes Bild mit Logos sozialer Medien
„Social Media“, Bild von Gerd Altmann auf Pixabay

Ein Gastbeitrag von Jan Kastner

1.    Die Internet-Revolution

In der Menschheitsgeschichte finden sich viele Erfindungen, welche die Gesellschaft grundlegend verändert haben. Buchdruck, automatischen Webstühle, Elektrizität, Sprengstoff, Flugzeuge u.v.m. – die Liste könnte sehr weit gehen und niemand würde den Erfindungen ihren transformatorischen Einfluss absprechen. Veränderungen sind selten rein positiv und in den meisten Fällen gibt es Schattenseiten. Eine der weitreichendsten Entwicklungen der letzten Jahrzehnte ist zweifelsfrei das Internet. Die Idee einer grenzenlosen verbundenen Welt begleitet den Siegeszug des Internets seit Beginn. Der freie Zugang zu Wissen, die Möglichkeit die eigene Sicht öffentlich zu teilen und geografische Entfernungen zu überwinden, um sich zu vernetzen. In all diesen Eigenschaften des Internets liegen emanzipatorische Kräfte. Ein Individuum, das unabhängig von wirtschaftlichen und gesellschaftlichen Hierarchien potenziell allwissend ist, sich frei ausdrücken und organisieren kann, ist das Ideal einer Demokratie. Die weltweite Etablierung des Internets sollte aus dieser Überlegung nur positive Auswirkungen für Demokratien haben. In der Mitte des ersten Jahrzehnts des 21. Jahrhunderts entstanden neue Plattformen, welche die Vernetzung und den Austausch von Menschen erleichtern sollten: Soziale Medien – für viele ein Synonym für Kommunikation über das Internet. Auch hier müsste der erwartete demokratisierende Effekt auftreten. 2016 kam es zu zwei für die deutsche Öffentlichkeit unerwarteten und unerklärlichen Wahlausgängen in etablierten Demokratien: Das „Pro-Brexit“-Votum in Großbritannien und die Wahl von Donald Trump zum US-Präsidenten. Bei der Suche nach Erklärungen fiel der Verdacht auf mögliche Manipulationen durch Soziale Medien. Befürchtungen wurden in Deutschland laut, dass es auch in der kommenden Bundestagswahl zu einer illegitimen Beeinflussung kommen könnte. Es stellt sich daher die Frage, ob es bei der Bundestagswahl 2017 zu einer Manipulation über Soziale Medien kam. Um diese zu beantworten, muss zunächst die Struktur des Internets dargestellt werden, um die Funktionsweise von Sozialen Medien und die darin potenziell antidemokratischen Gefahren erklären zu können. Als mögliche Manipulationsmöglichkeiten wurden „Fake News“ (Desinformationen), illegitimes Mikrotargeting und Political Bots identifiziert. Es hat sich gezeigt, dass es im Bundestagwahlkampf 2017 zu keinen nachweislich wahlentscheidenden Manipulationen durch Soziale Medien gekommen ist. Es wird aber deutlich, dass die Werbefinanzierung des Internets, die fehlende Regulierung und intransparente Unternehmen strukturelle Probleme geschaffen haben, die durch antidemokratische Akteure ausgenutzt werden. In Deutschland werden diese strukturellen Schwächen von rechten Netzwerken in und um die AfD für ihre Medienstrategie genutzt. Sie wollen ein postfaktisches, virtuelles Volk schaffen, das abseits des demokratischen Konsenses und des öffentlichen Diskurs steht. Die Gefahr für die Demokratie sind antidemokratische rechte Akteure. Die strukturellen Gegebenheiten des Internets und der Sozialen Medien erleichtern ihr Vorhaben.

2.    Die Handelswaren des Internets

In der Menschheitsgeschichte ist ein Zeitalter angebrochen, in dem alle potenziell allwissend sind. Notwendig dafür ist nur ein Internetzugang.[1] In der Idee kennt das Internet keine Hierarchie und ermöglicht einen grenzenlosen Zusammenschluss und Austausch.[2] Trotzdem gibt es zwei Narrative in der Betrachtung: Eine Fortschrittserzählung und Heilsgeschichte auf der einen Seite und eine kulturpessimistische Verfallsgeschichte auf der anderen. Der Mensch ist am Rande der Erlösung von allen menschlichen Problemen oder steht vor dem Abgrund der Zivilisation. Beide Narrative sind zu kurz gegriffen. Alle Phänomene des Internets sind nur „Updates“ von schon bestehenden.[3] Wie in jeder Heilserzählung gibt es auch eine Schöpfungsgeschichte des Internets. Eine Welt, in der alles in Ordnung war. Internet war ein exklusives globales Netzwerk von einer geringen Anzahl privilegierter Menschen. Zu militärischen und zivilen Forschungszwecken entwickelt, waren die Nutzer*innen voller Idealismus und das Internet war für die einzelne Person kostenlos. Zwar musste viel Geld für Hardware und Internetzugang ausgegeben werden, aber das „Netz“ war frei und ohne Werbung.[4] Mit der Ausbreitung der Technologie entstanden neue Unternehmen, die sich in kürzester Zeit zu den reichsten und mächtigsten der Welt entwickelten. Viele davon stellen ihre Dienste vermeintlich kostenfrei zu Verfügung, um den Markt des „freien“ Internets zu erobern. Finanziert wird dies durch Werbung. Werbefinanzierte Medien gab es zwar schon mit dem Aufkommen von dampfbetriebenen Druckmaschinen und dem Boulevardjournalismus, aber durch neue Technologien wurde dieses Finanzierungskonzept allgegenwertig. Die Menschen sind heute so an die vermeintlich kostenfreien Dienste gewöhnt, dass Werbefinanzierung das dominierende Geschäftsmodell des Internets geworden ist.[5] Das werbefinanzierte Internetmodell hat Vorteile: Weltweiter kostenloser und einfacher Zugang zu globalen Kommunikationsnetzwerken, dem gesamten Wissen der Menschheit und topaktuellen Informationen aus der ganzen Welt. Außergewöhnliche Software und Technologien, die von privaten Unternehmen entwickelt und durch Werbung (zum großen Teil) bezahlt wurden, sind weltweit zugänglich und nutzbar.[6] Doch jede*r Nutzer*in bezahlt. Zwar selten direkt mit Geld, aber immer mit den eigenen Daten und mit der wohl wertvollsten Ressource des 21. Jahrhunderts: der Aufmerksamkeit.

2.1 Die Daten

Daten sind die Tauschware im Internet. Aus persönlichen und privaten Geheimnissen wird eine Handelsware.[7] Überall im Netz werden Daten gesammelt, um gezielt Werbung schalten zu können. Breitgestreute Werbung ist ineffektiv und teuer. Werbung individuell zugeschnitten ist angenehmer für die Nutzer*innen und führt eher zum Erfolg. Je mehr Daten gesammelt werden, desto stärker ist die individuelle Kaufentscheidung beeinflussbar. Im Sammeln von so vielen Daten wie möglich liegen verborgende Erkenntnisse, die für Unternehmen enorme Vorteile bedeuten können.[8] Um auf diese Erkenntnisse zugreifen zu können, wird Hilfe von Algorithmen benötigt. Für Werbung versuchen Algorithmen anhand von Kaufdaten Menschen einzuordnen, um ihnen zielgerichtet Angebote schicken zu können. Dabei wissen diese durch die Analyse vorheriger Fälle schon vor den Individuen, was die Kund*innen in naher Zukunft brauchen. Solange die betroffene Person davon nichts merkt, funktioniert dies fast einwandfrei.[9] Algorithmen werden nicht nur für Werbung eingesetzt. Sie sind künstliche neuronale Netze, die durch Mustererkennung zu Lösungen kommen.[10] Dabei gibt es zwei grobe Typisierungen: Regelbasierte Algorithmen und selbstlernende Algorithmen (Machine-Learning-Ansatz).[11] Der zweite Typ ist die Art von Algorithmus, die oft auch als „Künstliche Intelligenz“ (KI) bezeichnet wird. Eine KI kann deutlich komplexere Probleme lösen, selbst solche, an denen das menschliche Gehirn verzweifelt. Der große Nachteil dabei ist die fehlende Nachvollziehbarkeit für den*die menschliche*n Beobachter*in.[12] Algorithmen jeglichen Typus sind in jedem Aspekt des Lebens im 21. Jahrhundert. Sie finden sich auch in der Politik. Das Horrorszenario einer allgemeinen, umfassenden und dadurch allwissenden KI ist heute und in mittelfristiger Zukunft unmöglich. Die dafür benötigten Datenmengen und Energie sind unvorstellbar. Sich selbst überlassene Algorithmen sind aus anderen Gründen gefährlich.[13] „Data-Broker“ gehören zu den mächtigsten Firmen, von denen die Öffentlichkeit kaum etwas mitbekommt. Diese kaufen, sammeln und kombinieren Daten, um daraus Datenprofile zu erstellen. Diese Profile sind sehr detailliert und entstehen hauptsächlich aus Rückschlüssen der KI-Analysen.[14] Das ist der Deal. Kostenlose Technologie und Dienstleistungen für Daten. Dabei handelt es sich aber nicht um einen fairen Tausch. Die langfristigen Folgen sind den meisten Menschen nicht bewusst und sie verkaufen ihre Daten zu billig. Das Sammeln dieser Datenmengen hat Gefahren und Folgen – auch für die Demokratie.[15]

2.2 Die Aufmerksamkeit

Die weitaus wertvollere Ware, um die im Internet gebuhlt wird, ist sehr kurzlebig: die Aufmerksamkeit. Alles im Netz ist darauf aufgebaut, den Menschen abzulenken. Jede App, jede Website und jeder Social-Media-Feed will dazu animieren, dass der*die Nutzer*in immer weiter klickt. Sie sind darauf zugeschnitten, die Aufmerksamkeit und dadurch möglichst viel Zeit und Zuwendung zu bekommen.[16] Informationen sind nun Massenware. Die neue wertvollste Ressource ist die Aufmerksamkeit. Die Menschen sind von Suchenden zu Wählenden geworden.[17] Daher ist die wichtigste Fähigkeit nicht, mehr Information zu finden, sondern diese zu filtern, evaluieren, einzuordnen und kritisch zu hinterfragen.[18] Da die meisten Angebote im Internet werbefinanziert sind, ist der Wettkampf um die Aufmerksamkeit ein Wettrennen um die anziehendste Aufmachung, die am meisten ablenkt.[19] Menschen haben sich daran gewöhnt, sich ablenken zu lassen. Überall sind vermeintlich neue Informationen und Nachrichten, die Aufmerksamkeit wollen und diese auch bekommen.[20] Es ist eine 24-Stunden-Beschallung von Informationen und ein Kampf um die Aufmerksamkeit. Um überhaupt gehört zu werden, muss laut „geschrien“ werden, und eine Eskalation ist dabei vorprogrammiert.[21]

Das menschliche Leben ist nur eine Folge von Entscheidungen mit einer ständigen Priorisierung, womit Zeit verbracht werden soll. Deswegen werden so viele Entscheidungen wie möglich ausgelagert, weil ansonsten das Gehirn überfordert ist.[22] Hier kommen wieder die Algorithmen ins Spiel. Diese wissen, was das Individuum mag und was nicht, sie teilen einem mit, was gelesen, angeschaut und teilweise gegessen werden soll. Sie sind eine bequeme Autoritätsquelle in der 24/7-Dauerbeschallung. Eine einfache Möglichkeit, Entscheidungen und damit Verantwortungen zu delegieren. Eine Abkürzung, ohne denken zu müssen.[23]

2.3 Die Machtfrage

Die Abgabe der Entscheidungsfindung ist eng verbunden mit der Frage der Macht. Diese Machtfrage ist zentral. Die virtuelle Masse des Internets fordert allein durch ihre Existenz die traditionellen Machtapparate heraus.[24] Die Dynamik zwischen virtuellen und der in der physischen Welt materialisierten Masse kann von staatlichen Autoritäten nicht vorausgesehen und eingedämmt werden.[25] Gleichzeitig werden die Selektionsmechanismen der traditionellen Medienlandschaft ausgehebelt[26] und die Machtposition der Medien als Vermittlerrolle stark geschwächt.[27] In allen Lebensbereichen vertrauen die Menschen Algorithmen blind. Schon heute entscheiden diese aber nicht nur alltägliche, sondern auch lebensverändernde Fragestellungen. Diese Entscheidungen betreffen die Leben von Millionen, wenn nicht Milliarden Menschen. Das Vertrauen hat oft keine gesunden Grenzen. Dabei sollten Abläufe immer, wenn Macht übertragen wird, kritisch analysiert werden.[28] Algorithmen, die Struktur des werbefinanzierten Internets und die Akteure in diesem müssen wie jede andere Machtquelle hinterfragt werden.[29] Beispiele, dass Objekte und Erfindungen unbemerkt auf Menschen Macht ausüben, gibt es in der Menschheitsgeschichte viele. Manchmal böswillig und bewusst, meistens aber ist es gar nicht die Intention, sondern ein Fehler. Das trifft auch auf die digitalen Erfindungen zu.[30] Das Internet hat die klassischen Machtstrukturen herausgefordert. Die politischen Strukturen kommen dieser Entwicklung nicht hinterher. Dabei hat es die Macht, die Demokratie zu untergraben.[31]

3.    Gefahren für die Demokratie durch Soziale Medien

Die Grundstruktur des werbefinanzierten Internets, das auf das Sammeln von Daten und dem Wettkampf nach Aufmerksamkeit basiert, kann am deutlichsten in den „Sozialen Medien“ wiedergefunden werden. Diese sind Plattformen, die meistens kostenlos angeboten werden, in denen Individuen sich global vernetzen und austauschen können. Jede*r ist zeitgleich Sender und Empfänger von Informationen. Ohne Hürden eines Selektionsprozess jedweder Art.[32] Auch hier sind Algorithmen zentral. Inhalte, Freundschaftsvorschläge, aktuelle Trends und vieles Weitere werden von ihnen ermittelt, analysiert, sortiert und dargestellt. Soziale Medien wie auch Suchmaschinen gäbe es ohne Algorithmen nicht.[33] Es handelt sich dabei um soziotechnische Systeme. Eine Verbindung eines sozialen mit einem technischen System. Es definiert sich aus drei Eigenschaften.

  1. Das soziale nutzt das technische System zur Kommunikation.
  2. Das soziale erschafft das technische System und das technische beeinflusst das soziale System.
  3. Das technische System wird so bedeutsam, dass das soziale System das technische in die Selbstbeschreibung integriert.[34]

Um die Funktionsweise und die Gefahren von Soziale Medien nachvollziehen zu können, ist es notwendig, diese als soziotechnisches System zu verstehen.

Die virtuellen Massen des Internets bilden sich in den Plattformen der Sozialen Medien. Virtuelle Massen lassen sich künstlich erweitern, was sie anfällig für Manipulation macht.[35] Diese technische Fehlkonstruktion des soziotechnischen Systems wird durch die soziale Komponente verstärkt. Beiträge in sozialen Medien können die Emotionen der Nutzer*innen beeinflussen.[36] Die Möglichkeit des Internets, Zugang zu allen möglichen Informationen zu haben, bewirkt ein Paradoxon. Eine häufige Reaktion ist die Abschottung gegenüber Nachrichten, die ein Individuum nicht wahrnehmen will. Es entsteht das Phänomen von Filterblasen und Echokammern, durch die sich homogene Gruppen bilden, in denen es sich um reine Selbstbestätigung dreht.[37] Hier ist die Gefahr der Polarisierung gegeben, da sich Menschen in ihren Positionen und Meinungen andauernd bestätigen[38] und diese Gruppen sich dadurch radikalisieren.[39] Damit diese virtuellen Massen den virtuellen Raum erfolgreich verlassen können, ist die Größe ausschlaggebend.[40] Durch die Möglichkeiten der Manipulation, gegeben durch die Struktur der Sozialen Medien als soziotechnische Systeme, kann diese Größe künstlich erweitert werden. Da diese Massenbildung kaum durch bestehende Machtstrukturen greifbar ist, ist eine solche Manipulation in einer liberalen Demokratie potenziell systemgefährdend. In diesem Kapitel wird daher auf drei verschiedene Möglichkeiten der Manipulation in Sozialen Medien eingegangen.

3.1     Fake News – „Bullshit“ als politische Waffe

Das Internet hat unzählige Informationsmöglichkeiten und Plattformen. Es ist ein Raum für eine Vielfalt von Nachrichten und Meinungen. Die Pluralität von Öffentlichkeit ist keine neue Entwicklung, aber heute gibt es für jede These, egal wie absurd, eine Plattform. Jede*r findet Gleichgesinnte und ein Publikum.[41] Diese neuen Öffentlichkeiten drehen sich um die Individualität der Einzelnen. Die daraus entstehenden homogenen Gruppen, die sich in ihren Filterblassen selbst bestätigen, stehen dann häufig abseits des öffentlichen Diskurses.[42] Der Mensch beurteilt Nachrichten nicht objektiv. Das Individuum begeht dabei mehr oder weniger absichtlich den Bestätigungsfehler (confirmation bias). Durch die freiwillige Abschottung bestimmter Nachrichten festigt der Mensch lieber sein Weltbild, anstatt es zu hinterfragen. Dabei werden besonders identitätsgefährdende Informationen vermieden oder sogar bekämpft.[43] Das verstärkt den Effekt der Selbstbestätigung innerhalb von virtuellen Massen. Dabei hat sich das Internet – und in den letzten Jahren verstärkt Soziale Medien – als wichtige Nachrichtenquellen etabliert. In Deutschland ist der Anteil der Menschen, die sich über Soziale Medien informieren, größer als der Anteil der Zeitungslesenden.[44] Dabei ist es sehr wahrscheinlich, dass die Bedeutung von Sozialen Medien als Nachrichtenquelle weiter steigt.[45] Menschen innerhalb der selbstbestätigenden homogenen Gruppen bekommen daher häufig ihre Informationen größtenteils oder ausschließlich aus der eigenen Gruppe. Diese Stellung abseits des öffentlichen Diskurses ist schon per se problematisch, wird aber noch gefährlicher, wenn falsche Informationen in dieses selbstbestätigende Getriebe gestreut werden.

Der US-Philosoph Harry Frankfurt etablierte in einem Essay den Begriff des „Bullshit“.[46] Bullshit braucht keine Überzeugung von Wahrheit. Es ist egal, ob der*die Sprecher*in davon überzeugt ist, ob etwas wahr oder falsch ist. Das Ziel von Bullshit ist nämlich nicht der Wahrheitsgehalt, sondern die Wirkung. Das Konzept ist nicht neu, aber Soziale Medien erlauben die rasche und globale Verbreitung von Bullshit.[47] Im Kampf um die Aufmerksamkeit, um mehr Werbeeinnahmen zu generieren, greifen viele Akteure auf eine grundlegende Medienweisheit zurück: Je wilder eine Geschichte, desto spannender ist sie und desto besser lässt sie sich „verkaufen“.[48] Dabei wird versucht den Inhalt so emotional wie möglich zu verpacken. Menschen lassen sich durch emotionale Inhalte leichter erreichen als nur durch tatsächliche oder vermeintliche Fakten.[49] Durch die Werbefinanzierung vieler Angebote ist die Besucher*innenzahl von großer wirtschaftlicher Bedeutung. Einige Akteure versuchen daher mit emotionalen und wilden, fiktiven „Nachrichten“ die Aufmerksamkeit so vieler Menschen wie möglich zu gewinnen. Diese Bullshit-Strategie ist erfolgreich und lukrativ. Dabei finanzieren sich unter anderem antidemokratische rechte Akteure durch die so erzeugten Werbeeinnahmen.[50]

Der Begriff von „Fake News“ wurde erst durch den US-Präsidentschaftswahlkampf von Donald Trump allgegenwärtig. Hier wird die Bullshit-Strategie nicht nur zur Gewinnmaximierung angewendet, sondern auch als politische Waffe. Die Verbreitung von Desinformationen ist schon lange gängige Praxis antidemokratischer staatlicher Akteure weltweit.[51] Beispielsweise erschaffen Putin und sein Machtapparat dadurch einen „Wirklichkeits-Pluralismus“, um erfolgreich Menschen zu demotivieren und zu entpolitisieren. Die antidemokratischen Akteure der „Neuen Rechten“ nutzen die Strategie zweigleisig und richten den „Fake News“-Vorwurf auf traditionelle Medien. Dabei soll innerhalb der eigenen Gruppe, aber auch im Publikum, das Medienvertrauen untergraben werden.[52] In beiden Fällen soll suggeriert werden, dass es keine allgemeingültige, öffentlich zugängliche Informationsgrundlage gibt und nur die eigene Gruppe eine verlässliche Quelle ist. Wie erfolgreich diese Strategie ist, kann in Metaanalysen zu Medienvertrauen gesehen werden. Je weiter weg ein Mensch vom demokratischen Konsens ist, desto weniger Medienvertrauen gibt dieser an.[53] Die Individuen, die sich innerhalb selbstbestätigender Strukturen mit Fake News radikalisieren und schwer zugänglich sind für andere Informationen, teilen und verbreiten die Desinformation auch außerhalb ihrer Gruppe. Wenn sich Fake News mit einer ähnlichen Thematik häufen, kommt es zu einer erheblichen Beeinflussung der öffentlichen Meinung.[54]

Das Gehirn – und damit das Weltbild eines Menschen – fungiert wie ein Puzzle. Jede neue Information ist ein Puzzlestück, wobei im Weltbild viele Puzzlestücke fehlen.[55] Ist eine neue Information passend zu dem bestehenden politischen Weltbild und damit kompatibel zum eigenen Moral- und Wertesystem, wird diese Information eher aufgenommen, als wenn sie dagegenspricht.[56]  Gespeicherte Informationen zu vergessen, ist sehr schwer, selbst wenn das Individuum weiß, dass die Information falsch ist. Das Gehirn versucht, die Lücken zwischen den verschiedenen Informations-Puzzlestücken zu schließen. Dafür greift es auch auf widerlegt falsche Informationen zurück.[57] Fake News richten Schaden an, selbst wenn sie widerlegt oder sogar von der ursprünglichen Quelle als falsch deklariert werden.[58] Dabei wird die „Bullshit-Asymmetrie“ deutlich: Bullshit zu widerlegen, ist mindestens zehnmal aufwendiger, als diesen zu kreieren.[59]

3.2 Mikrotargeting – personalisierte Wahlwerbung

Je breiter Werbung gestreut wird, desto ineffektiver ist diese. Daher versuchen Akteure im werbefinanzierten Internet schon lange, Werbung immer gezielter auf das einzelne Individuum zugeschnitten einzusetzen. Viel Geld fließt in die Erforschung des Wirkungsgrades von Werbung. Sie ist deutlich effektiver, wenn sie auf Persönlichkeitsmerkmale angepasst wird.[60] Diese Art der auf einzelne Individuen angepassten Werbung wird „Mikrotargeting“ genannt. Solange dabei nur das Kaufverhalten beeinflusst wird, ist der Schaden begrenzt. Aber es ist möglich, damit Wahlentscheidungen zu beeinflussen[61] und das kann demokratiegefährdend sein. Mikrotargeting, im Sinne des direkten Ansprechens verschiedener Gruppen mit bestimmten Themen, wird schon lange von politischen Akteuren eingesetzt. Je größer eine Partei, desto verstärkter.[62] Die Problematik entsteht durch die soziotechnische Infrastruktur, die Mikrotargeting in viel größeren Dimensionen ermöglicht. Politisches Mikrotargeting ist zunächst nur gezieltes Werben mit parteipolitischen Inhalten, das auf der Analyse von großen unstrukturierten Datenmengen (Big Data) aus Sozialen Medien basiert.[63] Dabei beginnt die Manipulation schon damit, dass die betroffenen Personen nicht wissen, dass die Werbung nur bei ihnen in dieser Form zu sehen ist. Da immer mehr Menschen ihre Nachrichten aus Sozialen Medien ziehen und in soziotechnischen Systemen durch Filterblasen und Echokammern die gleichen Informationen zirkulieren und Menschen sich gegenseitig bestätigen, zeigt sich, wie gefährlich diese Art der Werbung sein kann. Werden nämlich mit Hilfe von Mikrotargeting Fake News in dieses System gestreut, können theoretisch sehr effektiv Wahlentscheidungen beeinflusst und großer Schaden angerichtet werden.

Ein Forschungsteam aus Cambridge und Stanford versuchte 2012, Verbindungen zwischen Persönlichkeitsmerkmalen aus der Psychologie mit den Facebook-Likes von Menschen zu finden. Dafür konnten Facebook-Nutzer*innen kostenlos einen Persönlichkeitstest machen, wobei sie zustimmen mussten, die Ergebnisse und ihre Facebook-Daten an das Team zu übermitteln. Das Forschungsvorhaben war ein Erfolg. Aus den gefundenen Verbindungen wurde ein Algorithmus gebaut, der anhand der Facebook-Likes auf die Persönlichkeit schloss. Das Ziel dahinter war selbstverständlich der Einsatz in der Werbebranche.[64] Die daraus entstandene Methodik wurde von einigen Akteuren eingesetzt, scheinbar auch von Cambridge Analytica im Trump-Wahlkampf 2016. Das Unternehmen hatte eine kleine Gruppe an Menschen identifiziert, die sie zugunsten von Trump beeinflussbar hielten. Dabei nutzten sie Persönlichkeitsprofile, um „emotionale politische Botschaften“ mit nationalistischen Elementen gezielt an diese Gruppe Wähler*innen zu schicken. Dabei wurde versucht diese Werbung, die teilweise Fake News beinhaltete, als journalistische Beiträge dazustellen.[65] Bei genauen Analysen aus ursprünglichen Forschungsergebnissen konnte zwar ein eindeutiger Einfluss festgestellt werden, aber in sehr geringen Maßen. Menschen können Werbung besser ignorieren und Propaganda identifizieren, als die sendenden Menschen dies gerne hätten. Trotzdem kann auch dieser winzige Einfluss entscheidend sein. Trump gewann die Präsidentschaftswahl 2016 in einigen Bundesstaaten mit wenigen tausend Stimmen Vorsprung. Bei einer Differenz von unter 1% kann Mikrotargeting wahlentscheidend sein.[66] Wieweit die Auswirkungen zukünftig sein werden, ist nicht vorauszusagen. Schäden für den demokratischen Prozess sind unausweichlich.[67]

3.3 Political Bots – Algorithmen, die Menschen imitieren

Virtuelle Massen sind anfälliger für Manipulation als reale, da diese sich in einem soziotechnischen System technisch künstlich verstärken und erweitern lässt. Es existiert die Gefahr der Massenbildung durch „Maschinen“. Eine rein fiktive virtuelle Masse durch Social Bots, die versucht, den Diskurs in Sozialen Medien und damit in der Gesellschaft zu manipulieren.[68] Social Bots sind Algorithmen, die menschliches Verhalten imitieren, um dadurch öffentliche Gewichtung und die Deutungsrichtung von Themen zu beeinflussen. Sie missbrauchen dabei die Strukturen des soziotechnischen Systems.[69] Sie besitzen keine eigene Meinung, sondern folgen nur einer vorgegebenen Strategie.[70] Diese setzt auf das Massenphänomen der Ansteckung[71] und folgt dem Prinzip der sozialen Bewährtheit. Je unüberschaubarer eine Situation ist, desto eher schließt sich ein Mensch der Mehrheitsmeinung an.[72] Die soziale Bewährtheit vereinfacht die individuelle Entscheidungsfindung[73] und spricht damit perfekt das menschliche Bedürfnis an, im Zeitalter der Dauerbeschallung und im Wettkampf um die Aufmerksamkeit so viele Entscheidungen wie möglich abzugeben. Dabei gibt es unterschiedliche Bot-Typen, einige auch nützlich und ungefährlich. Die politische Manipulation findet mit Hilfe von „Political Bots“ statt.[74] Political Bots setzen in Sozialen Medien gezielt Beiträge ab, in denen Informationen weggelassen oder verfälscht wurden.[75] Sie nutzen dabei aus, dass bei keiner Berichterstattung wahre Objektivität möglich[76] und somit jede Information immer verkürzt und mindestens subjektiv gefärbt ist. Durch den Bestätigungsfehler und die Selbstbestätigung der eigenen Gruppe werden Beiträge in sozialen Medien als legitime Quelle wahrgenommen. Es handelt sich dabei um eine Wahrheit, die nicht auf Wissen, sondern auf Glauben basiert. Die extreme Form dieser Medienwahrheit sind Fake News.[77] Political Bots werden eingesetzt, um gezielt Desinformationen innerhalb homogener Gruppen zu platzieren, aber auch um bestimmte Themen und Meinungen in den Fokus des gesellschaftlichen Diskurses zu bringen.[78] Im Wettkampf um die Aufmerksamkeit ist es auch bei menschlichen Nutzer*innen Sozialer Medien notwendig, eine bestimmte virtuelle Masse zu erreichen, um die Aufmerksamkeit auf ein bestimmtes Thema zu lenken. Wird genug Unterstützung für einen Beitrag gewonnen, springen immer mehr Menschen auf und er geht „viral“. Dieser kritische Punkt und die dafür benötigte virtuelle Masse, kann durch Political Bots künstlich erreicht werden.[79] Dabei spielen die Eigenschaften der soziotechnischen Systeme in die Hände der Akteure hinter den Political Bots. Die Algorithmen bevorzugen Beiträge, die besonders viele Interaktionen bekommen und machen diese sichtbarer. Je mehr vermeintliche Unterstützung ein Beitrag hat, desto größer wird die Reichweite.[80] Durch die massenweise Generierung von Interaktionen wird mit Political Bots eine vermeintliche Mehrheitsmeinung erzeugt.[81] Das menschliche Gehirn hat eine Vorliebe für Bekanntes und bevorzugt Informationen, welche die eigene Meinung bestärken und nicht in Frage stellen. Die vermeintliche Mehrheitsmeinung, die durch künstliche Massenerweiterung geschaffen wurde, erschafft das psychologische Phänomen der „Illusion of Truth“. Allein durch die Häufung wird eine Information als wahr wahrgenommen.[82] Political Bots sind ein reines Instrument von antidemokratischen Akteuren, das den demokratiegefährdenden Charakter verdeutlicht.[83] Die Kombination aus sozialer Bewährtheit, die Mehrheitsmeinungen suggeriert, und dem Phänomen der Medienwahrheit, das Fake News legitim erscheinen lässt, ermöglicht es, mit Hilfe von Political Bots alternative Realitäten zu erschaffen.[84] Durch die Beschaffenheiten der soziotechnischen Systeme im werbefinanzierten Internet sind in diesen alternativen Realitäten der Manipulation kaum Grenzen gesetzt.

4.    Manipulation im Bundestagswahlkampf 2017

Bei näherer Betrachtung ist das Wahlergebnis der Bundestagswahl 2017 recht unspektakulär. Die Ergebnisse ähneln stark der Wahl von 2009. Mit der großen Ausnahme der rechtsextremen „Alternative für Deutschland“ (AfD), die mit 12,6 Prozent nicht nur zum ersten Mal in den Bundestag einziehen konnte, sondern gleichzeitig stärkste der „kleinen“ Fraktionen und nach der erneuten Bildung einer Großen Koalition größte Oppositionspartei wurde. (Vergleich: Linke 9,2 %; FDP 10,7 %; 8.9 % Grüne)[85] Erstmals seit 1998 ist – durch eine immer stärker polarisierende Gesellschaft – die Wahlbeteiligung gestiegen. Mit dem Erfolg der AfD und der Rückkehrerin FDP sind so viele Fraktionen im Bundestag vertreten wie seit 1953 nicht mehr. Es ist ein Zeichen einer hohen politischen Fragmentierung, die auch dadurch sichtbar wird, dass die Union und SPD zusammen so wenig Stimmen wie noch nie auf sich vereinen konnten.[86] Obwohl in allgemeinen Wahlumfragen die Wahl als „langweilig“ bezeichnet wurde, weil das Ergebnis als absehbar galt, waren die meisten Wähler*innen noch bis kurz vor der Wahl unentschlossen.[87] Die mediale Aufmerksamkeit und der gesamte Wahlkampf drehte sich um die Debatte über geflüchtete Menschen in Deutschland. Das Thema war so zentral, dass es für den Ausgang der Wahl entscheidend war.[88]

Bei Partei- und Wahlinformationen herrscht heute ein Überfluss an Kommunikationsangeboten. Die Aufmerksamkeit der Wähler*innen muss in diesem Überangebot gewonnen werden. Wählkämpfe waren immer schon Informationskampagnen, nun müssen diese auf neue Kanäle erweitert werden.[89] Erstmals wurden 2017 in Deutschland flächendeckend datengestützte Kommunikationsmöglichkeiten in einem Wahlkampf genutzt. Dabei ist die Relevanz Sozialer Medien in den jeweiligen Kampagnen deutlich gestiegen.[90] In Deutschland dauerte es im Gegensatz zur USA länger, bis das Internet für politische Kampagnen eingesetzt wurde. Das lag an den fehlenden finanziellen Ressourcen der Parteien und an der Tatsache, dass sich das Internet in Deutschland lange nicht als politische Informationsquelle etabliert hatte.[91] Die Bedeutung des Internets als politische Informationsquelle ist bis zur Bundestagswahl 2017 stetig gewachsen. Ein besonders starker Zuwachs kann am Interesse nach politischen Inhalten in Sozialen Medien beobachtet werden. Die wichtigste Rolle nehmen dabei Facebook und Twitter ein, wobei ersteres die größte Nutzer*innenbasis in Deutschland hat.[92] Deswegen wird sich in der Analyse auf diese zwei Plattformen konzentriert. Es werden die drei Gefahren durch Soziale Medien im Kontext der Bundestagswahl 2017 untersucht, um die Rolle dieser Manipulationsmöglichkeiten in Deutschland darzustellen.

4.1     Desinformation als Medienstrategie

Im Vorfeld der Bundestagswahl 2017 gab es die Befürchtung, dass Desinformationen einen großen Einfluss nehmen würden. Selbst der Bundeswahlleiter warnte vor einer möglichen Beeinflussung der Wahlentscheidung durch diese.[93] Der Nährboden einer erfolgreichen Desinformations-Kampagne schien gegeben. Die sogenannte „Politische Mitte“, die einen großen Teil der Wechselwählerschaft in der Bundesrepublik ausmacht, war strukturell nervös und hatte Zukunftsängste.[94] Zeitgleich hatten noch nie so viele Menschen Zugriff auf einen so umfangreichen Fundus an Desinformationen.[95] Dennoch schien die Gefahr unbegründet. Die großen erfolgreichen Fake News blieben aus.[96] Dafür wurde eine große Menge kleinerer Fake News gezählt.[97] Die erfolgreichste Plattform für Desinformationen in Deutschland ist Facebook, weil es am weitesten verbreitet ist. Twitter hingegen ist weit abgeschlagen auf dem zweiten Platz.[98] Um die Plattform-Dominanz besser einzuordnen, ist es wichtig zu wissen, welche Gruppen Desinformationen verbreiten und welche Positionen sie auf Facebook einnehmen. Fake News sind in Deutschland ein rein rechtes Phänomen. Dabei spielt die AfD eine zentrale Rolle, ist aber nicht der einzige Akteur eines rechtspopulistischen/-extremen Netzwerks, das besonders stark auf Facebook aktiv ist.[99] Soziale Medien sind zentral in der Medienstrategie der AfD, da sie direkt ohne journalistische Vermittler mit ihrer Anhängerschaft kommunizieren will.[100] Rechte bis rechtsextreme Akteure sind in Sozialen Medien weltweit die erfolgreichsten politischen Accounts. Dabei erscheinen sie oft relevanter, als sie tatsächlich sind.[101] Teil der Medienstrategie der AfD und anderer rechter Akteure ist es, die Legitimation der klassischen Medien in Frage zu stellen. Dieses Vorgehen kann als erfolgreich eingeordnet werden, da besonders bei der eigenen Anhängerschaft das Medienvertrauen nachhaltig gestört und teilweise sogar zerstört wurde. Wer den klassischen Massenmedien nicht mehr traut, sucht sich neue Informationsquellen im Netz.[102] Das kann in der Mediennutzung der Anhänger*innen der AfD deutlich gesehen werden. Soziale Medien sind für sie als Quelle bedeutender als bei allen anderen Gruppen.[103] Dadurch kann auch die Dominanz der AfD auf Facebook erklärt werden. Sie hatte 2017 nämlich in allen Bereichen die meisten Interaktionen und Follower und damit die absolute Reichweitendominanz aller politischer Parteien in Deutschland. Die Werte in allen Kategorien waren für die AfD höher als die Werte der Regierungsparteien zusammen.[104] Dieses Kräfteungleichgewicht lässt die zerstörerische Macht erahnen, die durch die Desinformationen rechter Akteure entwickelt werden könnte.

Der angebliche Misserfolg von Desinformationen im Bundestagswahlkampf 2017 ist daher ein Trugschluss, weil die unterschiedlichen Wirkungen von Fake News nicht beachtet wurden. Neben dem Untergraben des Medienvertrauens geht es auch um die Themensetzung und das Framing dieser Themen. In der medialen Debatte kann der Erfolg dieser Strategie deutlich gesehen werden. Alle Fake News zur Bundestagswahl waren thematisch verengt auf Innere Sicherheit im Zusammenhang mit geflüchteten Menschen.[105] Die Kommunikationsstrategie der AfD und Co. sollte nicht die Mehrheit von den Desinformationen überzeugen, sondern ihre Wähler*innen mobilisieren.[106] Die Untergrabung des Medienvertrauens, die Themensetzung, das Framing und die Mobilisierung mit Hilfe von Desinformationen war im Bundestagswahlkampf 2017 erfolgreich. Die Wirklichkeit wurde dadurch verzerrt und eine alternative Realität kreiert.[107] Eine digitale homogene Gruppe wurde geschaffen und von äußeren Informationen abgeschirmt, um die absolute Deutungshoheit in dieser Gruppe zu erringen.

4.2 Zwischen Legalität und Datenschutz

Mikrotargeting kann ein legitimer Teil eines Onlinewahlkampfs sein und muss nicht zwangsläufig eine Manipulation darstellen. Daher ist es nicht verwunderlich, dass alle Parteien, die am Ende in den Bundestag einziehen konnten, im Wahlkampf 2017 Mikrotargeting in der einen oder anderen Weise eingesetzt haben.[108] Die Parteien investierten mehrere Millionen Euro, um unter anderem die größte und wichtigste Online-Zielgruppe anzusprechen: die fast 20 Millionen deutschen Facebook-Nutzer*innen.[109] Deutsche Parteien und Politiker*innen betreuen mehr als 1500 Facebookseiten, über die sie direkt mit ihren Anhänger*innen in Kontakt treten können. Facebook hat die letzten Jahre die organische Reichweite dieser Gruppen minimiert, um Anreize für bezahlte Reichweite zu schaffen.[110] Dabei richtet sich Facebooks Akquise gezielt an Politiker*innen.[111]

Die AfD nutzt Mikrotargeting intensiver als alle anderen deutschen Parteien. Wie genau, ist von außen nicht einsehbar.[112] Fehlende Transparenz ist eins der Hauptprobleme von Mikrotargeting und existiert nicht nur bei der AfD. Die Unionsparteien, die SPD und die FDP geben kaum Informationen über ihren Onlinewahlkampf heraus. Nur Bündnis90/Die Grünen und die Linkspartei versuchen alle nötigen Informationen zur Verfügung zu stellen. Transparenz über Mikrotargeting hängt in Deutschland am guten Willen der Parteien und ihrer Werbeagenturen.[113] Politische Werbung ist in den klassischen Medien streng reguliert. Im Bereich des Onlinewahlkampfs hingegen herrscht fast Narrenfreiheit.[114] Facebook, die Plattform, die am stärksten mit Mikrotargeting wirbt, gibt keine Auskunft darüber, wie sie ihre zielgerichtete Werbung ermöglicht. Als Deckmantel fungiert hier, wie bei der Forderung nach dem Offenlegen ihrer Algorithmen, das Betriebsgeheimnis. Dahinter steckt unter anderem die Angst, durch Transparenz eine Angriffsfläche für die europäische Datenschutz-Grundverordnung (DSGVO) und anderen Datenschutzgesetze zu bieten.[115] Der Einsatz von Facebook für politische Kampagnen ist in Deutschland datenschutzrechtlich fragwürdig.[116] Die Datenschutz-Situation ist nicht mit derjenigen in den USA vergleichbar. Datenschutzgesetze verhindern parteieigene umfangreiche Datenbanken von potenziellen Wähler*innen. Deswegen müssen Parteien auf die Angebote der Sozialen Medien zurückgreifen. Obwohl die Legalität von Mikrotargeting in Deutschland hochumstritten ist, wird es genutzt.[117]

Digitale Werkzeuge im Wahlkampf sind in Deutschland weniger etabliert als in den USA.[118] Im Vergleich zur US-Wahl wird im Bundestagswahlkampf noch sehr wenig auf Mikrotargeting gesetzt.[119] Obwohl es 2017 einige Experimente der Parteien im Hinblick auf zielgerichteten Onlinewahlkampf gab, blieb von außen betrachtet eine große Manipulation aus.[120] Mikrotargeting spielt im Moment in Deutschland noch eine untergeordnete Rolle.[121] Die differenzierte Mediennutzung, die in Deutschland immer noch weit verbreitet ist, hemmt den negativen Einfluss von Mikrotargeting.[122] In Deutschland gibt es – wie in anderen liberalen Demokratien – die Idee des fairen Wettbewerbs mit einer gewissen Transparenz und Vergleichbarkeit. Kommunikationskanäle und der darüber vermittelte Inhalt standen allen offen. Widersprüchliche Aussagen waren damit sichtbar und kritisierbar. Das ist beim Einsatz von Mikrotargeting nicht oder nur noch sehr erschwert möglich. Diese Art des Agierens in einem rechtlichen Graubereich und die Intransparenz durch Akteure und Plattformen schaffen ein großes Missbrauchspotenzial.[123] Mikrotargeting verstärkt die Filterblasen- und Echokammer-Problematik auch in Deutschland und konstruiert unterschiedliche digitale Realitäten.[124]

4.3 Fehlgeschlagener Einsatz von Political Bots?

Political Bots beherrschten – neben den anderen Möglichkeiten der Manipulation durch Soziale Medien – die Diskussion um den Bundestagswahlkampf 2017.[125] Die Wahl von Donald Trump zum US-Präsidenten und das Pro-Brexit-Votum, die beide nachweislich Manipulationsversuchen mit Hilfe von Political Bots ausgesetzt waren, sensibilisierte die deutsche Öffentlichkeit und die Parteien für diese Thematik.[126] Diese Sorge führte im Oktober 2016 zu einem öffentlichen Appell der Bundeskanzlerin Angela Merkel an alle Parteien, in der Bundestagswahl auf Political Bots zu verzichten. Dem Appell wurde zunächst nur von der AfD widersprochen, die nach öffentlicher Kritik die Aussage wieder relativierte.[127] Dass sich die großen Parteien offiziell gegen einen Einsatz ausgesprochen haben, bedeutet nicht, dass sich die jeweiligen Unterstützungsnetzwerke an diese Vorgabe halten.[128] Die allgemeine Sorge schien nicht unberechtigt, da es in Deutschland einen politischen Nährboden gab, der durch den gezielten Einsatz von Political Bots künstlich verstärkt werden konnte.[129] Gleichzeitig konnte eine erhöhte Bot-Aktivität zur Bundestagswahl 2017 gemessen werden.[130]

Die Plattform, die am stärksten von Political Bots betroffen ist, ist Twitter. Der Einsatz auf Facebook ist deutlich schwieriger, weil Schnittstellen weder einfach noch umfangreich zugänglich sind. Daher ist eine massive Verfälschung durch Political Bots auf Facebook sehr unwahrscheinlich.[131] Zwar ist die Nutzer*innen-Basis innerhalb Deutschlands für Twitter gering, aber durch Einbindung und Referenzen von Tweets in der klassischen Medienberichterstattung hat Twitter eine deutlich höhere Reichweite. Zeitgleich ist der Großteil aller Nachrichten auf Twitter öffentlich, Beiträge verbreiten sich schneller und besser und Hashtags können leichter manipuliert werden.[132]

In der Nachbetrachtung kann aber festgestellt werden, dass Political Bots als Verbreiter von Fake News im Bundestagswahlkampf kaum in Erscheinung getreten sind.[133] Es gibt nur wenige Indizien für eine umfangreiche Manipulation, es konnten aber einige Versuche einer Einflussnahme durch Political Bots nachgewiesen werden.[134] Die Bots, die überhaupt gefunden werden konnten, entstammten hauptsächlich dem Umfeld der AfD.[135] Trotz der Aussage, keine Bots im Wahlkampf einzusetzen, konnten mindestens bot-ähnliche Pro-AfD-Aktivitäten auf Twitter beobachtet werden. Diese können aus ihrem Unterstützungsumfeld stammen.[136] Political Bots sind zur Bundestagswahl 2017 ein Werkzeug der neuen Rechten gewesen, die durch diese und andere Methoden den Wahlkampf in Richtung AfD beeinflussen wollte.[137] Es stellt sich aber die Frage, wie weit wirklich Political Bots eingesetzt wurden. Es kann nämlich selbst bei als Bot identifizierten Accounts keine sichere Aussage getroffen werden, ob es sich um einen KI-gesteuerten Account oder nur einen bot-ähnlich agierenden Menschen handelt.[138] Unter anderem konnten während des Fernsehduells viele verdächtige Accounts gezählt werden, die versuchten, die Wahrnehmung der Diskussion in Richtung der AfD zu lenken. Dies stellte sich am Ende als eine koordinierte Aktion rechter Netzwerke heraus, wo mit hoher Wahrscheinlichkeit keine Political Bots eingesetzt wurden.[139] Obwohl die Unterscheidung zwischen Mensch-, Bot- und Hybrid-Account sehr schwierig ist, ist diese bei der Betrachtung der Reichweite zweitrangig. Am Ende wird die Sichtbarkeit erweitert und erreicht damit mehr natürliche Menschen.[140]

Obwohl Political Bots eingesetzt wurden, haben diese im Bundestagswahlkampf 2017 keine Rolle gespielt. Das lag unter anderem an einer massiven Überschätzung der möglichen Einflussnahme durch Bots.[141] Die gefundenen Political Bots hatten kaum Follower und eine sehr eingeschränkte Reichweite. Gleichzeitig ist Twitter in Deutschland ein Nischenmedium, das im politischen Kontext zwar bedeutend ist, aber am Ende nur eine sehr geringe Anzahl von Wähler*innen direkt erreicht.[142] Eine mittelbare Manipulation des Wahlausgangs ist in Deutschland daher noch nicht möglich. Die verbreitete Angst vor einer Manipulation durch Political Bots ist bei einer Gegenüberstellung mit den tatsächlichen Auswirkungen in Deutschland unbegründet und naiv.[143] Der Einsatz von Political Bots bei der Bundestagswahl 2017 kann in den Bereichen des Themensettings und der technischen Vergrößerung von virtuellen Massen als gescheitert eingeordnet werden. Political Bots werden aber auch eingesetzt, um alternative Realitäten zu erschaffen und zu erhalten.[144] Dies passt zur Medienstrategie der AfD und erhöht die Wahrscheinlichkeit, dass es in zukünftigen Wahlkämpfen zu weiteren Einsätzen von Political Bots kommen wird.

4.4 Wurde die Bundestagswahl 2017 mit Hilfe von Sozialen Medien manipuliert?

Im Bundestagswahlkampf 2017 konnten keine großen erfolgreichen Manipulationen über Soziale Medien festgestellt werden. Weder Fake News, illegitimes Mikrotargeting noch Political Bots haben den Ausgang der Wahl nachweislich beeinflusst. Trotzdem wurden in allen drei Bereichen Versuche registriert. Da es sich um antidemokratische Werkzeuge handelt, ist es nicht verwunderlich, dass die Versuche exklusiv aus den rechtspopulistischen bzw. rechtsextremen Netzwerken um und in der AfD stammen. Die Absicht hinter dieser Medientaktik ist nicht, die Mehrheit zu überzeugen, sondern eine alternative Realität zu erschaffen, in der die absolute Deutungshoheit bei den eigenen Leuten liegt und Informationen von außen keinen Einfluss haben. Es ist beabsichtigt, aus einer virtuellen Masse ein virtuelles Volk zu erschaffen.[145] In diesem geht es nicht um Faktizität, sondern nur um die Übereinstimmung mit Gleichgesinnten. Das virtuelle Volk ist eine postfaktische Sekte.[146]

Jede Technik ist zunächst neutral. Kein Objekt und auch kein Algorithmus ist per se gut oder böse.[147] Soziotechnische Systeme und die Unternehmen, die sie betreiben, sind aus sich heraus keine Gefahr für die Demokratie. Die Nutznießer der fehlerhaften Infrastruktur und der ungenügenden rechtlichen Regelungen sind das Problem.[148] Die Aufgabe, diese Problemstellung zu lösen, liegt in der Hand der Strukturverantwortlichen in Wirtschaft und Politik.[149] Solange Unternehmen hinter den Sozialen Medien sich weigern, ihre Algorithmen und Geschäfte transparent zu gestalten, und politisch keine Rahmenbedingungen festgelegt werden, profitieren antidemokratische Akteure. Zwar sind zur Bundestagswahl 2017 die Auswirkungen der Manipulationsmöglichkeiten gering gewesen, doch führt die Medienstrategie dahinter zu einer langfristigen Unterhöhlung der Demokratie, in der Bevölkerungsteile dem demokratischen Konsens entzogen werden.

5.    Mehr Regelungen und Transparenz – weniger Angst

Die von der deutschen Öffentlichkeit unerwartete Wahl Donald Trumps zum US-Präsidenten und die darauffolgenden Analysen und Berichterstattungen lösten eine Angst über mögliche Manipulationsversuche aus. Die Befürchtungen, dass die Bundestagswahl 2017 durch Fake News, Mikrotargeting oder Political Bots manipuliert werden könnte, waren auf der einen Seite berechtigt und auf der anderen Seite übertrieben. Fake News waren in Deutschland ein fester Teil der Medienstrategie von rechten Akteuren um und in der AfD. Sie wurden genutzt, um die klassischen Medien zu delegitimieren und die eigenen Wähler*innen zu mobilisieren. Diese Strategie war erfolgreich. Zusätzlich konnte die medialen Berichtserstattung dadurch auf Themen der Inneren Sicherheit (mit einem starken Fokus auf geflüchtete Menschen) verengt werden. Desinformationen waren zentral, um Aufmerksamkeit zu erzeugen und Medien zu zwingen, sich kritisch mit diesen Nachrichten auseinanderzusetzen und damit gleichzeitig über sie zu berichten, sie also selbst zu verbreiten. Wie weit die AfD Mikrotargeting eingesetzt hat, um mit Falschinformationen ihre Anhängerschaft zu vergrößern, kann von außen nicht eingesehen werden. Die fehlende Transparenz beim Einsatz von Mikrotargeting durch Parteien und Facebook schafft ein großes Missbrauchspotenzial. Trotzdem konnten auch hier keine großen Manipulationen gefunden werden. Der Einsatz und die Auswirkung von Political Bots war im Bundestagswahlkampf minimal. Die wenigen identifizierten Accounts haben kaum zur Verbreitung von Desinformationen und zum Themensetting beigetragen, obwohl die tatsächliche Reichweite unbekannt bleibt. Political Bots und Desinformationen waren im Bundestagswahlkampf 2017 Werkzeuge der AfD und ihrer rechtspopulistischen bzw. rechtsextremen Unterstützungsnetzwerke. Illegitime oder mindestens fragewürdige Nutzung von Mikrotargeting wurde auch bei anderen Parteien beobachtet und war kein exklusives Phänomen des AfD-Umfelds. Wegen fehlender Regulierung und der Verweigerungshaltung von Facebook ist das gesamte Ausmaß unbekannt. Desinformation, Mikrotargeting und Political Bots sind Werkzeuge antidemokratischer Akteure und werden eingesetzt, um ein postfaktisches, virtuelles Volk abseits der demokratischen Öffentlichkeit zu schaffen und zu erhalten. Durch die Unterminierung des Vertrauens in klassische Medien wurde einer alternativen Realität der Weg gebahnt, in der rechte Akteure eine Deutungshoheit haben. Die Gefahr für den demokratischen Konsens ist nicht zu unterschätzen und muss politisch und gesellschaftlich adressiert werden.

[1] Vgl. Maren, Urner, 2019: „Schluss mit dem täglichen Weltuntergang“, München: Droemer, S. 11.

[2] Vgl. Gunter, Gebauer; Sven, Rücker, 2019: „Vom Sog der Massen und der neuen Macht der Einzelnen“, München: Deutsche Verlags-Anstalt, S. 222.

[3] Vgl. Ebd. S. 224 & 225.

[4] Vgl. Urner, a.a.O. S. 17.

[5] Vgl. Ebd. S. 14 – 16.

[6] Vgl. Hannah, Fry, 2019: „Hello World – Was Algorithmen können und wie sie unser Leben verändern“, München: C.H. Beck, S. 60.

[7] Vgl. Ebd. S. 39 & 51.

[8] Vgl. Ebd. S. 41 & 42.

[9] Vgl. Ebd. S. 44.

[10] Vgl. Stefan, Kleins, 2018: „Maschinen ist alles egal“, Wissenschaftsgespräche (31) Interview mit Margaret Boden, S. 83-89, Zeitmagazin (30. August 2018), S. 84.

[11] Vgl. Fry, a.a.O. S. 23.

[12] Vgl. Ebd. S. 24.

[13] Vgl. Kleins, a.a.O. S. 87.

[14] Vgl. Fry, a.a.O. S. 46 & 47.

[15] Vgl. Ebd., S. 40 & S. 60.

[16] Vgl. Urner, a.a.O. S. 13 – 15.

[17] Vgl. Ebd. S. 13.

[18] Vgl. Ebd. S. 27.

[19] Vgl. Ebd. S. 26.

[20] Vgl. Ebd. S. 50.

[21] Vgl. Ebd. S. 196.

[22] Vgl. Ebd. S. 192.

[23] Vgl. Fry, a.a.O. S. 14 & 29.

[24] Vgl. Gebauer; Rücke, a.a.O. S. 223.

[25] Vgl. Ebd., S. 236.

[26] Vgl. Fabian, Pfaffenberger; Christoph, Adrian; Philipp Heinrich, 2019: „Was bin ich – und wenn ja, wie viele?“, in Die (Massen-)Medien im Wahlkampf, C. Holtz-Bacha (Hrsg.), S. 97–124, Wiesbaden: Springer Fachmedien, S. 97.

[27] Vgl. Gebauer; Rücke, a.a.O. S. 230 & 231.

[28] Vgl. Fry, a.a.O. S. 26 & 27.

[29] Vgl. Ebd., S. 237.

[30] Vgl. Ebd., S.13 & 14.

[31] Vgl. Ebd., S. 15.

[32] Vgl. Urner, a.a.o. S. 12.

[33] Vgl. Fry, a.a.O. S. 14.

[34] Vgl. Tobias D., Krafft; Katharina A., Zweig, 2017: „Ein Faktencheck – Ließ ein Algorithmus Trump triumphieren?“ in Informatik Spektrum 40, S. 336–344, Heidelberg: Springer, S. 341.

[35] Vgl. Gebauer; Rücker, a.a.O. S. 233.

[36] Vgl. Fry, a.a.O. S. 58.

[37] Vgl. Gebauer; Rücker, a.a.O. S. 227 & S. 233.

[38] Vgl. Krafft; Zweig, a.a.O. S. 340.

[39] Vgl. Urner, a.a.O. S. 180.

[40] Vgl. Gebauer; Rücker, a.a.O. S. 238.

[41] Vgl. Ebd. S. 227.

[42] Vgl. Ebd. S. 232 & 233.

[43] Vgl. Urner, a.a.O. S. 177 & 178.

[44] Vgl. Pfaffenberger; Adrian; Heinrich, a.a.O. S. 97.

[45] Vgl. Krafft; Zweig, a.a.O. S. 343.

[46] Vgl. Harry G., Frankfurt, 2014: „Bullshit“, Frankfurt a. M.: Suhrkamp.

[47] Vgl. Urner, a.a.O. S. 207.

[48] Vgl. Ebd. S. 17.

[49] Vgl. Krafft; Zweig, a.a.O. S. 342.

[50] Vgl. Ebd.

[51] Vgl. Gebauer; Rücker, a.a.O. S. 228.

[52] Vgl. Ebd. S. 230.

[53] Vgl. Urner, a.a.O. S. 59.

[54] Vgl. Krafft; Zweig, a.a.O. S. 342.

[55] Vgl. Urner, a.a.O. S.25.

[56] Vgl. Ebd. S. 175.

[57] Vgl. Ebd. S. 166 & 169.

[58] Vgl. Ebd. S. 167.

[59] Vgl. Ebd. S. 172.

[60] Vgl. Fry, a.a.O. S. 58.

[61] Vgl. Ebd. S. 59.

[62] Vgl. Ebd. S. 57.

[63] Vgl. Krafft; Zweig, a.a.O. S. 243.

[64] Vgl. Fry, a.a.O. S. 54 & 55.

[65] Vgl. Ebd. S. 56 & 57.

[66] Vgl. Ebd. S. 59 & 60.

[67] Vgl. Krafft; Zweig, a.a.O. S. 243.

[68] Vgl. Gebauer; Rücker, a.a.O. S. 233.

[69] Vgl. Robin, Graber; Thomas, Lindemann, 2018: „Neue Propaganda im Internet. Social Bots und das Prinzip sozialer Bewährtheit als Instrumente der Propaganda“ in „Fake News, Hashtags & Social Bots, Aktivismus- und Propagandaforschung.“, K. Sachs-Hobach & B. Zywietz (Hrsg.), S. 51–68., Wiesbaden: Springer Fachmedien, S. 52.

[70] Vgl. Ebd. S. 57.

[71] Vgl. Gebauer; Rücker, a.a.O. S. 234.

[72] Vgl. Pfaffenberger; Adrian; Heinrich, a.a.O. S. 99.

[73] Vgl. Graber; Lindemann, a.a.O. S. 60.

[74] Vgl. Pfaffenberger; Adrian; Heinrich, a.a.O. S. 100.

[75] Vgl. Graber; Lindemann, a.a.O. S. 58.

[76] Vgl. Urner, a.a.o. S. 61 – 63.

[77] Vgl. Graber; Lindemann, a.a.O. S. 58 & 59.

[78] Vgl. Pfaffenberger; Adrian; Heinrich, a.a.O. S. 102.

[79] Vgl. Graber; Lindemann, a.a.O. S. 61.

[80] Vgl. Ebd. S. 62.

[81] Vgl. Pfaffenberger; Adrian; Heinrich, a.a.O. S. 120.

[82] Vgl. Krafft; Zweig, a.a.O. S. 342 & 343.

[83] Vgl. Pfaffenberger; Adrian; Heinrich, a.a.O. S. 102.

[84] Vgl. Graber; Lindemann, a.a.O. S.66.

[85] Vgl. Mathias, Jung; Yvonne, Schroth; Andrea, Wolf, 2019: „Bedingt regierungsbereit – Eine Analyse der Bundestagswahl 2017“, in „Die Bundestagswahl 2017 – Analysen der Wahl-, Parteien-, Kommunikations- und Regierungsforschung“ Korte & Schoofs (Hrsg.), S. 23–46, Wiesbaden: Springer Fachmedien, S. 24 & 31.

[86] Vgl. Karl-Rudolf, Korte, 2019: „Die Bundestagswahl 2018: Ein Plebiszit über Flüchtlingspolitik“, in „Die Bundestagswahl 2017 – Analysen der Wahl-, Parteien-, Kommunikations- und Regierungsforschung“ Korte & Schoofs (Hrsg.), S. 1–22, Wiesbaden: Springer Fachmedien, S. 2.

[87] Vgl. Jung; Schroth; Wolf, a.a.O. S. 24.

[88] Vgl. Korte, a.a.O. S. 6.

[89] Vgl. Winfried, Schulz, 2019: „Predigten für Bekehrte – Wie die Wahlkommunikation beim Wähler ankommt“, in „Die (Massen)Medien im Wahlkampf“, S. 313–341, Wiesbaden: Springer Fachmedien, S. 314.

[90] Vgl. André, Haller, 2019: „Die Online-Kampagnen im Bundestagswahlkampf 2017“ in „Die (Massen)Medien im Wahlkampf“, S. 49–72, Wiesbaden: Springer Fachmedien, S. 49–51.

[91] Vgl. Ebd. S. 52 & 53.

[92] Vgl. Jürgen, Maier, 2019: „Mediennutzung und politische Partizipation in Ostdeutschland“ in „Die Umdeutung der Demokratie – Politische Partizipation in Ost- und Westdeutschland“, Everhard Holtmann (Hrsg.), S. 291–322, Frankfurt a. M.: Campus Verlag, S. 301–306.

[93] Vgl. Martin, Motzkau, 2020: „Europawahl im Fokus von Desinformationen im Netz?“ in „Europawahl 2019“, S. 231–239, Wiesbaden: Springer Fachmedien, S. 232.

[94] Vgl. Korte, a.a.O. S. 5.

[95] Vgl. Motzkau, a.a.O. S. 232.

[96] Vgl. Alexander, Sängerlaub; Miriam Meier; Wolf-Dieter, Rühl, 2020: „Islamische Grabschparty in Schondort! – Die Bundestagswahl 2017 und das Phänomen „Fake News“ in „Fake News und Desinformation – Herausforderungen für vernetzte Gesellschaft und empirische Forschung“, Hohlfeld, Harnischmacher, Hänke, Lehner, Sengel (Hrsg.), S. 221–244, Baden Baden: Nomos, S. 234.

[97] Vgl. Alexander, Sängerlaub; Miriam Meier; Wolf-Dieter, Rühl, 2018: „Fakten statt Fakes. Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017.“, Stiftung Neue Verantwortung, https://www.stiftung-nv.de/sites/default/files/snv_fakten_statt_fakes.pdf, S. 76.

[98] Vgl. Ebd. S. 86 & Sängerlaub et al. (2020), a.a.O. S. 237.

[99] Vgl. Sängerlaub et al. (2020), a.a.O. S. 240.

[100] Vgl. Johannes, Hillje, 2017: “Propaganda 4.0 – Wie Rechte Populisten Politik machen“, Bonn: J.H.W, S. 93–95.

[101] Ebd. S. 92.

[102] Vgl. Ebd. S. 84 – 87.

[103] Vgl. Sängerlaub et al (2018), a.a.O. S. 88.

[104] Vgl. Haller, a.a.O. S. 69 & 70.

[105] Vgl. Sängerlaub et al. (2018), a.a.O. S. 76.

[106] Vgl. Sängerlaub et al. (2020), a.a.O. S. 241.

[107] Vgl. Sängerlaub et al. (2018), a.a.O. S. 95.

[108] Vgl. Ingo, Dachwitz, „Wahlkampf in der Grauzone: Die Parteien, das Microtargeting und die Transparenz“, netzpolitik.org, 01. September 2017, https://netzpolitik.org/2017/wahlkampf-in-der-grauzone-die-parteien-das-microtargeting-und-die-transparenz/, Zuletzt aufgerufen am: 31.07.2021.

[109] Vgl. Jaana Müller-Brehm, „Forschungsstand: Microtargeting in Deutschland und Europa“, medienanstalt-nrw.de, https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien_Forschung/Forschungsmonitoring_Microtargeting_Deutschland_Europa.pdf, Zuletzt aufgerufen am: 31.07.2021, S.5.

[110] Vgl. Wolfie Christl, „Microtargeting. Persönliche Daten als politische Währung“, bpb.de, 07. Juni 2019, https://www.bpb.de/apuz/292349/microtargeting-persoenliche-daten-als-politische-waehrung, Zuletzt aufgerufen am: 31.07.2021.

[111] Vgl. Dachwitz, a.a.O..

[112] Vgl. Hillje, a.a.O. S. 104.

[113] Vgl. Dachwitz, a.a.O..

[114] Vgl. Sängerlaub et al. (2018), a.a.o. S. 97.

[115] Vgl. Müller-Brehm, a.a.O. S. 5.

[116] Vgl. Christl, a.a.O..

[117] Vgl. Dachwitz, a.a.O..

[118] Vgl. Anna-Lena Kirsch et al., „WAHLWERBUNG 2.0 oder Wie datengestützter Wahlkampf in Deutschland eingesetzt wird“, Uni Jena, https://www.ifkw.uni-jena.de/ifkwmedia/wahlwerbung+2_0+oder+wie+datengest%C3%BCtzter+wahlkampf+in+deutschland+eingesetzt+wird.pdf, Zuletzt aufgerufen am: 31.07.2021, S. 8.

[119] Vgl. Dachwitz, a.a.O..

[120] Vgl. Constanze, Kurz; Ingo, Dachwitz, „Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl“, bpb.de, 02. April 2019, https://www.bpb.de/gesellschaft/digitales/digitale-desinformation/290522/microtargeting-und-manipulation-von-cambridge-analytica-zur-europawahl, Zuletzt aufgerufen am: 31.07.2021.

[121] Vgl. „Microtargeting in Deutschland und Europa“, medienanstalt-nrw.de, https://www.medienanstalt-nrw.de/themen/desinformation/microtargeting-in-deutschland-und-europa.html, Zuletzt aufgerufen am: 31.07.2021.

[122] Vgl. Krafft; Zweig, a.a.O. S. 340.

[123] Vgl. Dachwitz, a.a.O..

[124] Vgl. Müller-Brehm, a.a.O. S. 8.

[125] Vgl. Isabelle, Borucki; Andrea, Meisberger, 2019: „Dealing and dancing with Bots: Der Umgang der Parteien mit disruptiven Phänomenen im Bundestagswahlkampf“, in „Die Bundestagswahl 2017 – Analysen der Wahl-, Parteien-, Kommunikations- und Regierungsforschung“ Korte & Schoofs (Hrsg.), S. 343–362, Wiesbaden: Springer Fachmedien, S. 344.

[126] Vgl. Haller, a.a.O. S. 58.

[127] Vgl. Pfaffenberger et al., a.a.O. S. 98.

[128] Vgl. Borucki; Meisberger, a.a.O. S. 348.

[129] Vgl. Pfaffenberger et al., a.a.O. S. 98 & 99.

[130] Vgl. Borucki; Meisberger, a.a.O. S. 349 & 350.

[131] Vgl. Haller, a.a.O. S. 58.

[132] Vgl. Pfaffenberger et al., a.a.O. S. 99.

[133] Vgl. Sängerlaub et al. (2018), a.a.O. S. 76.

[134] Vgl. Pfaffenberger et al., a.a.O. S. 100.

[135] Vgl. Sängerlaub et al. (2018), a.a.O. S. 76.

[136] Vgl. Pfaffenberger et al., a.a.O. S. 120.

[137] Vgl. Borucki; Meisberger, a.a.O. S. 349.

[138] Vgl. Pfaffenberger et al., a.a.O. S. 119.

[139] Vgl. Ebd. S. 103.

[140] Vgl. Haller, a.a.O. S. 58.

[141] Vgl. Sängerlaub et al. (2020), a.a.O. S. 234 & 235.

[142] Vgl. Pfaffenberger et al., a.a.O. 120.

[143] Vgl. Borucki; Meisberger, a.a.O. S. 349.

[144] Vgl. Graber; Lindemann, a.a.O. S. 66.

[145] Vgl. Hilje, a.a.O. S. 76 & 103.

[146] Vgl. Gebauer; Rücker, a.a.O. S. 227.

[147] Vgl. Fry, a.a.O. S. 15.

[148] Vgl. Krafft; Zweig, a.a.O. S. 343.

[149] Vgl. Urner, a.a.O. S. 194.

Jan Kastner

Jan Kastner ist Politikwissenschaftler. Als Exilbayer lebt und arbeitet er in Bonn. Er studierte in Regensburg, Ljubljana und Bonn. Zwischen 2009 und 2015 war er in der Piratenpartei aktiv und danach fast 5 Jahre parteilos. Nun versucht er sein Glück bei den Grünen. Sein neuestes Projekt ist der sportpolitische Podcast „Polikick“ (https://polikick.de/).