Politische Akteure sind in der Mediengesellschaft, in der „fast alle
politischen Sachverhalte und Personen nur über Medien vermittelt“ (Brosius/Koschel
2003: 172) in Erscheinung treten, auf Medien angewiesen, um handeln zu
können. Die Rolle der Vermittlungsinstanz kam dabei vor der Emergenz
sogenannter sozialer Medien, beispielsweise Nutzerplattformen wie Facebook,
Twitter oder Instagram, vor allem Journalisten zu, die entlang definierter
Qualitätskriterien (vgl. Hendricks/Vestergaard 2017: 6 f.) Beobachtungs-,
Validierungs- und Orientierungsleistungen für ihre Rezipienten erbringen
(vgl. Neidhardt 2005 [1994]: 19; Neuberger 2006: 113 f.) und den Zugang zur
Öffentlichkeit professionell-redaktionell kontrollieren (vgl. Neuberger
2006: 2 ff.). Das politische Handeln musste sich an den Randbedingungen
massenmedialer Vermittlung orientieren. Neuberger bezeichnet diesen
Abschnitt der Mediengeschichte als Gatekeeper-Zeitalter (vgl. Neuberger
2005).
Inzwischen verfügen Nutzer im Internet aufgrund des dort vorhandenen
technischen Rückkanals über einen unvermittelten Zugang zur Öffentlichkeit
(vgl. Neuberger 2005: 205 ff.). Sie können ohne Fachkenntnisse und zumeist
kostenlos eigene Inhalte erstellen oder Inhalte Dritter sammeln,
modifizieren, ausstellen und syndizieren. Die tradierte Rollenverteilung in
Kommunikatoren, Mediatoren und Rezipienten befindet sich demnach in
Auflösung. Mit dieser Entwicklung verbunden ist ein
Demokratisierungsversprechen: Der Zugang zur Öffentlichkeit wird nicht mehr
ausschließlich professionell-redaktionell kontrolliert und vereinfacht so
die Veröffentlichung und Verbreitung von Inhalten.
Das Verhältnis von Angebot und Aufmerksamkeit im Internet hat Anderson im
Long Tail-Ansatz systematisiert (vgl. Anderson 2004; Anderson 2007). Der
Ansatz verdeutlicht, dass über die sogenannte Demokratisierung der
Produktionsmittel (vgl. Anderson 2007: 54) und der Distribution (vgl.
Anderson 2007: 55) professionell anmutende Inhalte zu geringen Kosten oder
kostenlos produziert und verbreitet werden können. Dadurch sind die Inhalte
durch permanentes Wachstum und ständige Komplexitätszunahme gekennzeichnet.
Die Verbindung des inhaltlichen Angebots durch Nutzer in der Kommunikator-
beziehungsweise Mediatorrolle sowie der Nachfrage durch Nutzer in der
Rezipientenrolle (vgl. Anderson 2007: 56) muss mittels technischer
Medienangebote erfolgen, also in der Regel mittels Suchmaschinen. Sie
gestatten die Verbindung von Angebot und Nachfrage in einem durch wachsende
Datenmengen und hohe Komplexität geprägten Medienumfeld, in dem auch
Medieninhalte ohne Nachfrage (Nischeninhalte) Bestand haben können.
Zu nennen sind ferner die auch auf Nutzerplattformen eingesetzten
Algorithmen, die auf Basis technischer Auswertungen der von Nutzern
vorgenommenen Handlungen bestimmte Inhalte hervorheben und andere Inhalte
in den Hintergrund treten lassen oder gar nicht erst anzeigen.
In einem derartigen Medienumfeld greifen zwar die tradierten Formen der
Aufmerksamkeitserzeugung weiterhin, beispielsweise die Verschlagwortung
politischer Ziele (Agenda 2010, Neue Mitte, 18 Prozent, Hartz-Reformen et
cetera), politische Inszenierungen (Bundeskanzler Gerhard Schröder besucht
in Gummistiefeln Flutgebiete, die Hartz-Reformen werden im Berliner Dom
präsentiert) oder die gezielte Provokation (der AfD-Politiker Björn Höcke
bezeichnet das Holocaust-Mahnmal in Berlin als „Denkmal der Schande“ (Gäbler
2017: 22)). Allerdings erhöht sich die Wahrscheinlichkeit der
öffentlichen Wahrnehmung durch Zuspitzungen und Skandalisierungen, wie man
insbesondere an dem AfD-Beispiel oder an Äußerungen von US-Präsident
Donald Trump erkennen kann. Generell kann eine Beschleunigung der Politik
befürchtet werden, da Politiker (etwa der US-Präsident via Twitter) ihre
Botschaften ungefiltert ihren Öffentlichkeiten zugänglich machen und (mitunter weltweit)
Reaktionen auslösen können. Die Gefahr der Verbreitung von Fake News ist auf
diesem Weg gestiegen.
Postfaktische Politik
Die Strategie, in der politischen Diskussion auch offensichtlichen Tatsachen
zu widersprechen, sie selbst als Lügen zu bezeichnen und stattdessen
gefühlten Wahrheiten die Bedeutung von
Fakten zuzumessen, kann „als Symptom einer sich entwickelnden postfaktischen
Demokratie“ (Hendricks/Vestergaard 2017: 5) gesehen werden. Offensichtlich
ist, dass eine vollständig faktenbasierte politische Kommunikation als
Fiktion gelten kann. Lügen in der Politik sind keine Besonderheit, denn
Politik ist (auch) „strategische Kommunikation“ (Marschall 2017: 17).
Allerdings stellen „opportune Narrative“ (Hendricks/Vestergaard 2017: 5),
wie sie in postfaktischen politischen Systemen aufkommen, eine andere
Qualität dar: „Das Neue an der postfaktischen Demokratie ist, dass man sich
nicht mehr die Mühe geben muss, die Lüge zu verstecken“ (ebd.). Das betrifft
beispielsweise dokumentierte eigene Aussagen, die im Nachhinein abgestritten
werden (vgl. Weingart 2017: 11), Falschaussagen zu gut belegten
Sachverhalten (etwa der Größe der Menschenmenge bei der Amtseinführung von
US-Präsident Donald Trump (vgl. Hendricks/Vestergaard 2017: 4)) bis zur
Leugnung wissenschaftlicher Erkenntnisse, beispielsweise zum Klimawandel
(vgl. Weingart 2017: 11).
Weiteres Symptom postfaktischer Politik ist neben
der Verbreitung von Unwahrheiten auch die Abwertung anderer
gesellschaftlicher Gruppen, beispielsweise „Einwanderer […], die angeblich
nationale Sicherheit, Identität und Werte bedrohen, oder auch politische
Eliten in Brüssel oder Washington, die ‚das Volk‘ hintergehen“ (Hendricks/Vestergaard
2017: 8). Der Journalismus, der im Gegensatz zum unvermittelten Zugang zur
Öffentlichkeit im Internet Validierungsleistungen erbringt und zur
Beurteilung und Einordnung beitragen soll, wird als Lügenpresse (vgl. z. B.
Weingart 2017: 11) verunglimpft. Donald Trump, in dessen Umfeld Begriffe wie
Fake News oder alternative Fakten erst geprägt wurden, nutzt die
beschriebenen Strategien selbst in großem Umfang: „Als Donald Trump in den
USA die Regierungsgeschäfte übernahm, beeilte er sich, die Presse zur
eigentlichen Opposition zu erklären. Damit schmähte er die tatsächliche
politische Opposition als bedeutungslos und wies den Medien eine Rolle zu,
für die er sie sogleich kritisieren konnte“ (Gäbler 2017: 32).
Virale Narrative
Die Eigenschaften sozialer Medien begünstigen die Verbreitung zugespitzter
Inhalte ebenso wie von Falschmeldungen und Lügen, die auch in der
öffentlichen Diskussion inzwischen als Fake News (vgl. Hendricks/Vestergaard
2017: 7) oder alternative Fakten (vgl. Kolmer 2017: 40) bezeichnet werden
und die ihre professionelle Anmutung den im Long Tail-Ansatz beschriebenen
Randbedingungen verdanken. Sie erlangen durch die Weiterleitung auf
Nutzerplattformen sowie durch die Auffindbarkeit mittels Suchmaschinen
schnelle Verbreitung und können in der Folge kaum oder nur unter großem
Aufwand wieder aus der Öffentlichkeit oder aus Teilöffentlichkeiten
entfernt werden.
Fake News werden nicht ausschließlich als Texte verbreitet. Inzwischen
werden dazu auch grafische Inhalte genutzt, etwa wissenschaftlich fundiert
anmutende Diagramme, die Sachverhalte verzerrt darstellen oder auch
vollständig unwahr sein können. Ferner sind mit Bearbeitungsprogrammen
manipulierte Bilder (vgl. Guy 2018; Cresci 2017) oder Videos (sogenannte
Deepfakes, vgl. z. B. Gensing 2018) im Umlauf. Zur Rezeption manipulierter
Bilder liegen empirische Ergebnisse vor, die darauf hindeuten, dass das
Erkennen der Fälschung durch die Nutzer in der Mehrheit der Fälle misslingt
(vgl. Nightingale/Wade/Watson 2017).
Ebenfalls zur Verbreitung von Fake News können sogenannte Memes genutzt
werden. Memes sind Grafiken, die bestimmte Aussagen pointiert, unterhaltend
und mitunter lustig darstellen und sich zudem leicht erstellen und
verbreiten lassen (vgl. Guy 2017; Mina 2018; Renner 2017): “memes are part
of our political culture, utilized by advocacy groups and the president of
the United States alike to spread messages“ (Mina 2018). Mit Memes, die in
der Regel bei gleichbleibenden Motiven mit sich jeweils verändernden
Aussagen in Erscheinung treten, lassen sich Aussagen emotionalisieren,
zumeist werden Sachverhalte ins Lächerliche gezogen: “In addition to the
information they convey, they also carry notions of emotion, narrative, and
identity“ (ebd.).
Die Erstellung und Verbreitung entsprechender Inhalte kann inzwischen auch
automatisiert über sogenannte Social Bots erfolgen, die als Algorithmen
selbstständig agieren und Inhalte in Form von Kommentaren und Bewertungen
einbringen (vgl. Lüber 2017), Diskussionen anregen oder innerhalb von
Diskussionen gezielt polarisieren und provozieren. Ihr Potenzial, Inhalte
permanent zu verbreiten, zeigt die Schwierigkeit, mittels manueller
Verfahren die Ausbreitung von Fake News einzudämmen.
Konsequenzen
Nach Marschall (vgl. 2017: 19) gefährden Lügen in der Politik die
Demokratie, denn sie stehen „quer zu mehreren demokratischen Kernelementen:
Vertrauen, Kontrolle und Transparenz“ (Marschall 2017: 19): „Vertrauen
speist sich aus unterstellter Glaubwürdigkeit“ (ebd.), Lügen stehen dieser
Konzeption also entgegen. Kontrollmechanismen, die die Demokratie sichern
sollen, werden durch Lügen untergraben. Transparenz wiederum ist
erforderlich, um politische Entscheidungen intersubjektiv nachprüfbar zu
gestalten und bildet die Grundlage, um die Bevölkerung an der Politik
teilhaben zu lassen und zur Teilhabe zu motivieren (vgl. Marschall 2017: 19
f.). Die ohnehin schon bestehende „Vertrauenskrise“ (Bünte 2018) der Medien
insgesamt wird durch die Existenz von Fake News eher verstärkt. Das
Marktforschungsunternehmen Edelman (vgl. Edelman 2018) hat im Rahmen einer
in 28 Ländern durchgeführten, repräsentativen Studie ermittelt, dass 70
Prozent der befragten Mediennutzer insgesamt und 61 Prozent der in
Deutschland Befragten „Angst vor Falschmeldungen“ (Bünte 2018) haben. Zudem
wüssten „63 Prozent weltweit und 54 Prozent der Deutschen […] nicht, wie sie
Fake News von Qualitätsjournalismus unterscheiden sollen“ (ebd.).
Insbesondere Nutzerplattformen, die die dort verbreiteten Inhalte in jeweils
identischer Weise (grafische Gestaltung und Positionierung) präsentieren,
bereiten den Befragten Schwierigkeiten.
Die Vertrauenskrise der Medien bezieht sich möglicherweise auch deshalb
zunehmend eher auf Suchmaschinen wie Google oder Nutzerplattformen wie
Facebook. Die im Journalismus oftmals pessimistische Perspektive auf
sogenannte Fake News lässt sich demnach nicht unbedingt halten: „Die
inzwischen immer lauter werdende Kritik an der Verbreitung von
Falschmeldungen über die sozialen Medien deutet nicht darauf hin, dass die
Gesellschaft viel Freude am ‚Postfaktischen‘ hätte. Vielmehr scheint sich
ein Gefühl der Desorientierung, des Betrogenseins zu verbreiten“ (Weingart
2017: 16).
Zu dieser Einschätzung kommt auch die Studie von Edelman, die für die
traditionellen Massenmedien – auch in Deutschland – einen Vertrauenszuwachs
ermittelt hat (vgl. Edelmann 2018: 19 ff.). Facebook fordert seine Nutzer
inzwischen auf, sich an der Kennzeichnung unglaubwürdiger Inhalte zu
beteiligen und hat zugleich ein Unternehmen beauftragt, das die Aufdeckung
von Fake News unterstützen soll (vgl. Reinbold 2017). Google beschäftigt 10
000 sogenannte Quality Raters (vgl. Rixecker 2017), die anhand eines
160-seitigen Regelwerks (vgl. ebd.) Websites unter anderem hinsichtlich
ihrer Glaubwürdigkeit beurteilen sollen. Die Bewertungen werden genutzt, um
die technischen Prozesse der Suchmaschine bei der Identifikation von Fake
News zu unterstützen und für zukünftige technische Validierungen zu
trainieren, bei denen die Suchmaschine Fake News selbstständig erkennen soll
(vgl. ebd.). Potenziell „problematische Inhalte“ (Rixecker 2017) werden
allerdings nicht aus dem Index der Suchmaschine entfernt. Wird eine
spezifische Seite gesucht, die als problematisch klassifiziert worden ist,
wird sie den Nutzern dennoch angezeigt. Lediglich bei thematisch allgemein
gehaltenen Suchhandlungen soll die Zusammenstellung der Suchergebnisse die
Bewertungen der Quality Raters unmittelbar berücksichtigen (vgl. Rixecker
2017).
Diskussionsansätze
In der Diskussion um Fake News und ihrer Folgen werden diverse Maßnahmen
erörtert, um die potenziell negativen Wirkungen zu mildern beziehungsweise
zu verhindern.
-
Dazu zählt beispielsweise die Festlegung verbindlicher Transparenzregeln (Berichtspflichten
von Politikern, Informationsfreiheitsgesetz et cetera) (vgl. Marschall 2017:
20).
-
Auch die Stärkung gesellschaftlicher Akteure, die Lügen aufdecken und
auflösen können, etwa das Wissenschaftssystem oder der Journalismus, ist als
Maßnahme zu nennen. Der Journalismus besitzt das Potenzial, in der
Öffentlichkeit ein Bewusstsein für Fake News erzeugen zu können (vgl. ebd.).
Das Problem hier ist, dass ein Teil der Bevölkerung die Medien selbst
als unglaubwürdig und als Teil einer lügenden Elite sieht, die daher kaum
zur Aufklärung von Lügen beitragen kann (vgl. Marschall 2017: 21),
allerdings ändert sich dieser Eindruck möglicherweise derzeit (s. o.).
Einige Medien, etwa die Washington Post, wollen ihre zentrale Funktion in
der Demokratie auch durch markante Claims unterstreichen. So hat die Washington Post seit 2017 die dramatisch klingende, aber vollkommen richtige
Zeile "Democracy dies in Darkness" ihrem Titel hinzugefügt.
-
Die Möglichkeit, von Nutzern oder freien Mitarbeitern als Fake News
identifizierte Beiträge auf Nutzerplattformen zu kennzeichnen, kann die
weitere Verbreitung erschweren (vgl. Fanta 2018). Zudem könnten faktisch
korrekte Medieninhalte algorithmenbasiert gefördert werden, um die
Sichtbarkeit von Fake News zu verringern (vgl. Fanta 2018).
-
Denkbar ist auch der Einsatz von Polizei und Staatsanwaltschaften zur
Aufdeckung und Ahndung von Lügen (vgl. ebd.). Schwierigkeiten bestehen
allerdings im Nachweis der Absichtlichkeit der Lüge (vgl. ebd.) und der
Tatsache, dass Fake News nicht zwingend illegal sind. Dies gelte sogar für
die Mehrzahl derartiger Inhalte (vgl. Fanta 2018), daher droht hier auch
eine Beschränkung der Meinungsfreiheit.
-
Programme wie Social Bots oder Verfahren wie Microtargeting, bei denen
verhaltensbasierte Botschaften an die Nutzer gesendet werden,
beispielsweise in Form von Wahlwerbung, könnten transparent gestaltet
werden müssen (vgl. Dachwitz 2017).
-
Neben den Nutzerplattformen und Suchmaschinenanbietern kann auch die
Politik Unterstützung durch Experten beziehen: Die Europäische Kommission
hat eine 39 Mitglieder zählende Expertengruppe bestellt, zu der auch
Vertreter von Google, Facebook und Twitter gehören (vgl. Europäische
Kommission 2018), um Maßnahmen gegen Fake News zu entwickeln. Diese
Maßnahmen könnten durch eine Verpflichtung der Nutzerplattformen zur
stärkeren Kontrolle der Inhalte und zur Löschung als kritisch beurteilter
Inhalte (vgl. Fanta 2018) verschärft werden. Die Schwierigkeit besteht
darin, die große und permanent anwachsende Menge und Komplexität von
Inhalten bearbeiten zu können. Zudem wird den Unternehmen die Entscheidung
selbst überlassen, welche Inhalte gerechtfertigt und welche als Fake News
problematisch sind.
-
Generell erscheint eine Förderung der Medienkompetenz (vgl. Marschall
2017: 22) sinnvoll, etwa durch eine verstärkte Aufnahme des Themas im Schulunterricht.
Suchmaschinen sind für die Verbreitung von Fake News ebenso wie
Nutzerplattformen von Bedeutung. Sie werden seit Jahren als Gatekeeper
charakterisiert, die den Zugang zu Inhalten regulieren (vgl. z. B. Machill
et al. 2003: 18; Röhle 2010: 137; Stark 2014: 2; Stark/Magin/Jürgens 2014:
21; kritisch dazu Neuberger 2005a: 4).
-
Die Forderung des ehemaligen Ministers für Justiz und Verbraucherschutz,
Heiko Maas, lautete demnach auch, die verwendeten Algorithmen zu
veröffentlichen (vgl. z. B. Greif 2014; Schultz 2014). Dies ist jedoch aus
der Perspektive der Suchmaschinenanbieter aus technischen sowie aus ökonomischen Gründen
problematisch (vgl. z. B. Greif 2014; Schultz 2014), da Suchmaschinen mit
der geforderten Transparenz die externe Manipulation ihrer
Ergebniserrechnung erleichtern und damit ihr Geschäftsmodell gefährden
würden.
-
Die Institution der Quality Raters (s. o.) ähnelt dem Vorschlag von
Machill/Beiler/Zenker, „unabhängige, von gesellschaftlich relevanten Gruppen
besetzte Beiräte“ (Machill/Beiler/Zenker 2007: 14) über die Qualität der
Suchergebnisse befinden zu lassen. Dies könnte beispielsweise verhindern,
dass bei der Eingabe bestimmter Begriffe in Suchmaschinen über die
Vorschlagsfunktion Diskriminierungen erfolgen, beispielsweise durch
Vorschläge stereotyper Begriffe in Bezug auf bestimmte Bevölkerungsgruppen
(vgl. Dachwitz 2017).
-
Die Einrichtung einer öffentlich-rechtlichen Suchmaschine (vgl. Machill/Beiler/Zenker
2007: 14) ist ebenfalls gefordert, bislang allerdings nicht realisiert
worden. Angesichts des erheblichen finanziellen Aufwands und der dafür
notwendigen technischen Kompetenz durch (hochbezahlte) Expertinnen und
Experten wird dieses Ziel wohl nicht erreicht werden können.
-
Die Löschung von Inhalten aus dem Suchmaschinen-Index (vgl. Greis/DPA
2018) ist eine naheliegende Forderung, die jedoch die bereits aufgezeigte
Zensurfrage sowie Fragen nach der Zuständigkeit und nach der konkreten
technischen Umsetzung bedingt.
Neben den Problemen der fehlenden Transparenz dürfte sich in sehr naher
Zukunft angesichts der wachsenden Verbreitung digitaler Assistenten die Frage stellen,
wie Fake News und einseitigen Inhalten vorgebeugt werden kann, denn Programme wie Alexa (Amazon),
Siri (Apple) oder Cortana (Microsoft) antworten auf frei formulierte
Fragestellungen mit möglichst eindeutigen Antworten, die intransparent
ermittelt werden. Die bislang ebenfalls intransparent ermittelte Auswahl an
Verweisen fällt dann weg.
Literatur
Anderson, Chris (2004): The Long Tail. In: Wired Magazine, 12. Jg., H. 10.
Online-Dokument: https://www.wired.com/2004/10/tail/ (06.05.18).
Anderson, Chris (2007): The Long Tail. How Endless Choice is Creating
Unlimited Demand. London: Random House.
Bünte, Oliver (2018): Medien-Vertrauenskrise: Immer mehr Menschen haben
Angst vor Fake News. In: Heise Online v. 23.01. Online-Dokument: https://www.heise.de/newstic
ker/meldung/Medien-Vertrauenskrise-Immer-mehr-Menschen-haben-Angst-vor-Fake-News-3
948678.html (16.06.18).
Cresci, Elena (2017): Fake tube sign read out on BBC News and in Commons
after Westminster attack. In: The Guardian v. 23.03. Online-Dokument:
https://www.theguardian.com/uk-news/2017/mar/23 /fake-tube-sign-read-out-bbc-westminster-attack
(16.06.18).
Dachwitz, Ingo (2017): Öffentlichkeit: Interview mit Frank Pasquale: Wie
Facebook und Google die digitale Öffentlichkeit dominieren. In:
Netzpolitik.org v. 15.07. Online-Dokument: https://netzpolitik.org/2017/interview-mit-frank-pasquale-wie-facebook-und-google-die-digital
e-oeffentlichkeit-dominieren/ (13.06.18).
Edelmann (2018): 2018 Edelman Trust Barometer. Global Report.
Online-Dokument: https://cms.edelman.com/sites/default/files/2018-01/2018%20Edelman%20Trust%20Baromet
er%20Global%20Report.pdf (16.06.18).
Europäische Kommission (2018): Experts appointed to the High-Level Group on
Fake News and online disinformation. Online-Dokument: https://ec.europa.eu/digital-single-market/en/news
/experts-appointed-high-level-group-fake-news-and-online-disinformation
(16.06.18).
Fanta, Alexander (2018): Öffentlichkeit: EU-Kommission lässt Expertenheer
gegen Fake News aufmarschieren. In: Netzpolitik.org v. 16.01.
Online-Dokument: https://netzpolitik.org/2018 /eu-kommission-laesst-expertenheer-gegen-fake-news-aufmarschieren/
(15.06.18).
Gäbler, Bernd (2017): AfD und Medien. Analyse und Handreichungen. Ein
Diskussionsbeitrag der Otto Brenner Stiftung. Frankfurt/Main:
Otto-Brenner-Stiftung.
Gensing, Patrick (2018): Manipulierte Videos; Auf dem Weg in eine
alternative Realität? In: Tagesschau.de v. 22.02. Online-Dokument: http://faktenfinder.tagesschau.de/hintergrund
/deep-fakes-101.html (16.06.18).
Greif, Björn (2014): Bundesjustizminister Maas fordert Einblick in Googles
Suchalgorithmus. In: ZDNet.de v. 16.09. Online-Dokument: http://www.zdnet.de/88205958/bundesjustiz
minister-mass-fordert-einblickgoogles-suchalgorithmus/ (04.05.18).
Greis, Friedhelm; DPA (2018): Bundesgerichtshof: Suchmaschinen müssen
Inhalte nicht vorab prüfen. In: Golem.de v. 27.02. Online-Dokument: https://www.golem.de/news/bundesgeri
chtshof-suchmas chinen-muessen-inhalte-nicht-vorab-pruefen-1802-133032.html
(08.05.18).
Guy, Hannah (2017): Why we need to understand misinformation through visuals.
In: First Draft/Harvard Kennedy School/Shorenstein Center on Media, Politics
and Public Policy v. 17.10. Online-Dokument: https://firstdraftnews.org/understanding-visual-misinfo/
(16.06.18).
Hendricks, Vincent F.; Vestergaard, Mads (2017): Verlorene Wirklichkeit? An
der Schwelle zur postfaktischen Demokratie. In: Aus Politik und
Zeitgeschichte. 67. Jg., H. 13 v. 27.03., S. 4-10.
Kolmer, Petra (2017): Wahrheit. Ein philosophischer Streifzug. In: Aus
Politik und Zeitgeschichte. 67. Jg., H. 13 v. 27.03., S. 40-44.
Lüber, Claus (2017): Social Bots: Die Macht der Meinungsroboter. In:
Goethe-Institut. Online-Dokument: https://www.goethe.de/de/kul/med/20951165.html
(16.06.18).
Machill, Marcel; Beiler, Markus; Zenker, Martin (2007):
Suchmaschinenforschung. Überblick und Systematisierung eines
interdisziplinären Forschungsfeldes. In: Machill, Marcel; Beiler, Markus
(Hrsg.): Die Macht der Suchmaschinen/The Power of Search Engines. Köln:
Herbert von Halem, S. 7-43.
Machill, Marcel; Neuberger, Christoph; Schweiger, Wolfgang; Wirth, Werner
(2003): Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. In:
Machill, Marcel; Welp, Carsten (Hrsg.): Wegweiser im Netz. Qualität und
Nutzung von Suchmaschinen. Gütersloh: Bertelsmann Stiftung, S. 13-490.
Marschall, Stefan (2017): Lügen und Politik im „postfaktischen Zeitalter“.
In: Bundeszentrale für politische Bildung v. 24.03. Online-Dokument: http://www.bpb.de/apuz/245217/luegen-und-politik-im-postfaktischen-zeitalter
(03.06.18).
Mina, An Xiao (2018): Memes and visuals come to the fore. In: Nieman Lab.
Predictions for Journalism 2018. Online-Dokument: http://www.niemanlab.org/2017/12/memes-and-visuals-come-to-the-fore/
(16.06.18).
Neidhardt, Friedhelm (2005) [1994] Jenseits des Palavers. Funktionen
politischer Öffentlichkeit. In: Wunden, Wolfgang (Hrsg.): Öffentlichkeit und
Kommunikationskultur. Münster: Lit, S. 19-30.
Neuberger, Christoph (2005): Das Ende des „Gatekeeper“-Zeitalters. In:
Lehmann, Kai; Schetsche, Michael (Hrsg.): Die Google-Gesellschaft. Vom
digitalen Wandel des Wissens. Bielefeld: Transcript, S. 205-212.
Neuberger, Christoph (2005a): Angebot und Nutzung von
Internet-Suchmaschinen. Marktstrategien, Qualitätsaspekte,
Regulierungsziele. In: Media Perspektiven. o. Jg., H. 2, S. 2-13.
Neuberger, Christoph (2006): Weblogs verstehen. Über den Strukturwandel der
Öffentlichkeit im Internet. In: Picot, Arnold; Fischer, Tim (Hrsg.): Weblogs
professionell. Grundlagen, Konzepte und Praxis im unternehmerischen Umfeld.
Heidelberg: dpunkt, S. 113-129.
Nightingale, Sophie J.; Wade, Kimberly A.; Watson, Derrick G. (2017): Can
people identify original and manipulated photos of real-world scenes? In:
Cognitive Research: Principles and Implications v. 18.07. Online-Dokument:
https://doi.org/10.1186/s41235-017-0067-2 (16.06.18).
Reinbold, Fabian (2017): Fake News: Deutsches Recherchebüro soll
Falschmeldungen auf Facebook richtigstellen. In: Spiegel Online v. 15.01.
Online-Dokument: http://www.spie gel.de/netzwelt/web/facebook-correctiv-soll-fake-news-richtigstellen-a-1130014.html
(13.06.18).
Renner, Nausicaa (2017): Memes trump articles on Breitbart’s Facebook page.
In: Columbia Journalism Review v. 30.01. Online-Dokument: https://www.cjr.org/tow_center/memes-trump-articles-on-breitbarts-facebook-page.php
(16.06.18).
Rixecker, Tim (2017): Gegen Fake-News und Gewalt: So trainiert Google den
Suchalgorithmus. In: T3N.de v. 15.03. Online-Dokument: https://t3n.de/news/google-fake-news-gewalt-suchalgorithmus-805035/
(16.06.18).
Röhle, Theo (2010): Die Demontage der Gatekeeper. Relationale Perspektiven
zur Macht der Suchmaschinen. In: Becker, Konrad; Stalder, Felix (Hrsg.):
Deep Search. Politik des Suchens jenseits von Google. Bonn: Bundeszentrale
für politische Bildung, S. 133-149.
Schultz, Stefan (2014): Sorge vor Kartell: Maas hätte gerne, dass Google
geheime Suchformel offenlegt. In: Spiegel Online v. 16.09. Online-Dokument:
http://www.spiegel.de/wirtschaft/
unternehmen/google-heiko-maas-fordertoffenlegung-von-algorithmus-a-991799.html
(06.05.18).
Stark, Birgit (2014): Don’t be evil. Die Macht von Google und die Ohnmacht
der Nutzer und Regulierer. In: Stark, Birgit; Dörr, Dieter; Aufenanger,
Stefan: Die Googleisierung der Informationssuche. Suchmaschinen zwischen
Nutzung und Regulierung. Berlin/Boston: Walter de Gruyter, S. 1-19.
Stark, Birgit; Magin, Melanie; Jürgens, Pascal (2014): Navigieren im Netz.
Befunde einer qualitativen und quantitativen Nutzerbefragung. In: Stark,
Birgit; Dörr, Dieter; Aufenanger, Stefan: Die Googleisierung der
Informationssuche. Suchmaschinen zwischen Nutzung und Regulierung.
Berlin/Boston: Walter de Gruyter, S. 20-74.
Weingart, Peter (2017): "Wahres Wissen" und demokratisch verfasste
Gesellschaft. In: Aus Politik und Zeitgeschichte. 67. Jg., H. 13 v. 27.03.,
S. 11-16. |
Der Autor
Björn Brückerhoff hat Neue Gegenwart®
1998 gegründet und ist Herausgeber, Chefredakteur und grafischer Gestalter aller Neue
Gegenwart®-Marken. Er ist promovierter Kommunikationswissenschaftler, Experte
für Medienwandel, digitale Kommunikation und Transformation, Journalist, Editorial Designer, Lead Awards- und
Grimme Online Award-Preisträger, Industriekaufmann und Hochschullehrer. Sein
Schwerpunkt in Lehre, Forschung und Publikationstätigkeit ist der digitale
Wandel mit seinen gesellschaftlichen und ökonomischen Wirkungen. Seine Dissertation erscheint im Frühjahr 2019 im Buchhandel.
Website:
www.brueckerhoff.de
Twitter: Follow
@brueckerhoff |