Skip to main content

Superwahljahr 2021: Gesellschaftlicher, medialer und rechtlicher Rahmen

(Reading time: 11 - 21 minutes)

Plattformen werden für die politische Willensbildung immer wichtiger. Auch deshalb werden die Betreiber von Internetplattformen durch aktuelle Gesetzesvorhaben auf Bundes und EU-Ebene in neuem Maße in die Pflicht genommen. Dies wirkt sich nicht nur auf das Verhalten der Plattformen selbst aus. Es beeinflusst auch das Verhalten der Nutzer:innen (Bürger:innen und Parteien) und deren Möglichkeit, sich über die Plattformen ihre freie Meinung zu bilden und diese zu äußern.

Von Matthias C. Kettemann, Vincent Hofmann, Julius Böke, Max Gradulewski, Jan Reschke und Leif Thorian Schmied

1. Einführung

Neun große Wahlen stehen in Deutschland 2021 auf dem Wahlkalender: Neben der Bundestagswahl am 26. September werden oder wurden die Landesparlamente in Baden-Württemberg und Rheinland-Pfalz (14.03.), in Sachsen-Anhalt (06.06.) sowie in Mecklenburg-Vorpommern, Berlin und Thüringen (26.09.) neu gewählt. Zusätzlich finden Kommunalwahlen in Hessen und Niedersachsen statt. Die politischen Parteien sind entsprechend mehr als gewöhnlich darauf bedacht, die Wähler:innen für sich zu gewinnen. Dabei steht der Wahlkampf 2021 unter anderen Vorzeichen als noch die letzten Bundestagswahl 2017.

Die gesellschaftliche Lage hat sich, insbesondere durch die anhaltende Corona-Pandemie und die rechtlichen Maßnahmen zur Minimierung ihrer Folgen, verändert, politische Entscheidungen wurden für die Bürger:innen zuletzt unmittelbarer spürbar. Auch das Informationsverhalten der (gerade jüngeren) Bürger:innen hat sich in den letzten fünf Jahren verstärkt hin zur Nutzung von Social Media als Nachrichtenquelle entwickelt.

Digitale Kommunikationsplattformen rücken 2021 auch im Wahlkampf in den Vordergrund, der klassische Infostand verliert in Zeiten der Corona-Bekämpfung an Bedeutung; ein Tür-zu-Tür-Wahlkampf findet kaum statt. Dies birgt Chancen und Risiken und geschieht vor dem Hintergrund sich ebenfalls verändernder rechtlicher Rahmenbedingungen.

Das Netzwerkdurchsetzungsgesetz und der Medienstaatsvertrag auf Bundesebene und die Entwürfe von Digital Services Act, Digital Markets Act und Data Governance Act auf europäischer Ebene nehmen die Betreiber von Internetplattformen in neuem Maße in die Pflicht. Dies wirkt sich nicht nur unmittelbar auf das Verhalten der Plattformen selbst aus, sondern beeinflusst mittelbar auch das Verhalten der Nutzer:innen (Bürger:innen und Parteien) und deren Möglichkeit der freien Meinungsbildung und -äußerung auf den für die politische Willensbildung zunehmend relevanten Plattformen.

2. Die Bundestagswahl 2017: kaum Beeinflussung durch Social Bots und Fake News

Nach den Erfahrungen mit Social Bots, Dark Ads und Fake News im Rahmen der Wahlkämpfe in den USA, Frankreich und Großbritannien gab es große Befürchtungen im Vorfeld der Bundestagswahl 2017, dass diese Internetphänomene auch die deutsche Demokratie beeinflussen könnten. Entgegen dieser auch medial vielfach geäußerten Befürchtungen gab es 2017 jedoch keine wesentliche Beeinflussung der Wahl durch die genannten Phänomene.

So waren Social Bots (hochgradig automatisiert agierende, sich als echte Menschen ausgebende Nutzer:innenkonten) 2017 zwar verbreitet und waren im Zeitraum vor der Bundestagswahl für bis zu 20% der Twitter-Meldungen zur Bundestagswahl verantwortlich, insbesondere für den Hashtag #Wahlbetrug, welcher kurz vor dem Wahltag häufig verbreitet wurde. Allerdings schafften es diese Bots nicht, den #Wahlbetrug in die Twittertrends zu bringen und diesem somit eine besondere Reichweite zu verschaffen. Auch das vermeintliche Ziel dieser Meldungen, das Vertrauen in die Integrität der Wahl zu erschüttern und Bürger:innen so von der Wahl abzuhalten, wurde verfehlt: 2017 wurde eine Wahlbeteiligung von ca. 76% erzielt.[1]

Ein anderes Problem im Vorfeld der Wahl waren Dark Ads und Dark Postings (Werbung, die nur einem ausgewählten Kreis von Nutzer:innen gezeigt wird, auf dem Profil der Anzeigenschalter jedoch nicht zu finden ist). So platzierte die CDU eine Werbemitteilung auf Russisch für Nutzer:innen, die an Russia Today interessiert waren. Diese Werbeanzeige, deren Inhalt eine klassische Message der CDU war, fand sich nicht auf der offiziellen Seite der CDU.[2]

Fake News wurden zwar verbreitet, dies jedoch nicht in dem erwarteten Maße und oft in einem Zusammenspiel von traditionellen und sozialen Medien. Letztere griffen falsche oder aus dem Kontext gerissene Meldungen klassischer journalistischer Medien auf und verstärkten so deren Verbreitung.[3]

Falsche Profile, welche im Gegensatz zu Social Bots nicht aktiv am Geschehen auf der Plattform mitwirken, machten jedoch einen großen Teil der Follower der Parteien aus. Der CSU folgten mit 38% anteilig die meisten falschen Profile, gefolgt von der FDP mit 36% aller Follower. Bei der AFD waren es 25%.[4] Diese Profile lassen die Seiten der Parteien beliebter erscheinen, als sie es tatsächlich sind.

Dass die Bundestagswahl durch das Verbreiten von Fake News und anderen die demokratische Willensbildung im Internet beeinträchtigenden Phänomenen kaum beeinflusst wurde, lag unter anderem an Initiativen wie #Wahlcheck17, für die Journalist:innen Meldungen und Diskussionen zur Wahl auf ihre Richtigkeit überprüften.[5]

3. Geänderte gesellschaftliche Rahmenbedingungen 2017 bis 2019

Die gesellschaftliche Lage hinsichtlich des Wahlkampfs hat sich im Vergleich zur Bundestagswahl 2017 bedeutend geändert, nicht zuletzt durch die COVID-19-Pandemie.

 

3.1. Lage vor COVID-19

Das Hauptaugenmerk von Wahlkämpfen in Zeiten vor der Corona-Pandemie lag primär auf persönlichen und unmittelbaren Gesprächen („Face-to-Face“) und Interaktionen mit Bürger:innen, um diese von den Zielen der Partei bzw. der Politiker:innen zu überzeugen. Dies wurde insbesondere durch die Errichtung von Infoständen und Auftritten von Politiker:innen auf Veranstaltungen erreicht. Ein stetig wachsender Fokus lag auch auf dem digitalen Wahlkampf.

3.2. Lage während COVID-19

Aufgrund der anhaltenden Pandemie musste die komplette Struktur von Wahlkämpfen geändert werden. Ein analoger, physischer Wahlkampf ist 2021 nicht realisierbar; vielmehr mussten die Parteien den Fokus auf einen digitalen Wahlkampf lenken. Dies bringt neue Chancen für die Kommunikation zwischen Bürger:innen und Politik mit sich. So ist durch die politische Steuerung der Pandemiebekämpfung in den vergangenen Wochen und Monaten der unmittelbare Einfluss politischer Entscheidungen auf das alltägliche Leben der Wähler:innen verdeutlicht worden. Darüber hinaus führen soziale Netzwerke als neue Informationsquellen zu einem erhöhten Interesse des Einzelnen an politischen Entscheidungen. Dies und der Umstand, dass soziale Plattformen eine größere Möglichkeit zur Einbindung jüngerer Menschen bieten, könnte zu einem Anstieg der Wahlbeteiligung führen.

  Auf der anderen Seite verstärkt sich das Gefahrenpotenzial der bereits 2017 befürchteten Versuche der Einflussnahme auf die Entscheidungen der Wähler:innen. Hier tragen die politischen Parteien eine große Verantwortung.

4. Geändertes Medienrepertoire und Nachrichtenverhalten

4.1. Nutzung digitaler Medien 2016

Nach dem Reuters Institute Digital News Report war 2016 die wichtigste Nachrichtenquelle für deutsche Onliner über 18 Jahre das Fernsehen. Nur 25% nannten das Internet als wichtigste Nachrichten-Ressource. Angebote von Nachrichtenmedien hatte jede:r fünfte Nutzer:in sozialer Netzwerke abonniert. Insbesondere in Bezug auf politikbezogene Angebote wurden diese von insgesamt 15% der regelmäßigen Nutzer:innen sozialer Netzwerke über 18 Jahre in Deutschland wahrgenommen. Politiker:innen oder Parteien erhielten hingegen je nach Altersgruppe unterschiedlich viel Aufmerksamkeit: Nur 7% der über 55-Jährigen, aber 21% der 18- bis 24-Jährigen folgten ihnen.[6]

 

4.2. Nutzung digitaler Medien 2020

Mit Blick auf die Relevanz der verschiedenen Nachrichtenquellen gab es 2020 keine großen Sprünge im Vergleich zu 2016: Das lineare Fernsehen wurde von 70% der Befragten mindestens einmal wöchentlich als Nachrichtenquelle genutzt und war somit weiterhin die mit Abstand am weitesten verbreitete Nachrichtenquelle, auch wenn dessen Bedeutung in diesem Kontext konstant sinkt. Dagegen stieg der Anteil der Nutzer:innen, welche mindestens einmal wöchentlich Social Media als Informationsquelle nutzen, auf 37%, in der Gruppe der 18-24-Jährigen sogar auf 56 %.Gleichzeitig wuchs das politische Interesse: 2020 gaben 52 % der sich im Internet bewegenden Erwachsenen an, sich für Politik zu interessieren.[7]

Die Studie des Projekts #usethenews ergab, dass Social Media in der Gruppe der 18- bis 24-Jährigen insgesamt die am häufigsten genutzte Nachrichtenquelle ist. Nur bei etwas weniger als der Hälfte der Studienteilnehmer:innen war lineares Fernsehen noch relevanter. Beachtlich ist dabei, dass selbst in der Gruppe junger Erwachsener, welche sich primär aus journalistischen Quellen informiert, ein höheres Wissen über auf Social Media gesetzte Themen nachgewiesen wurde als über politisches Grundlagenwissen: Mehr als 2/3 der Befragten konnten richtig beantworten, was #blacklivesmatter bedeutet, während weniger als die Hälfte wusste, dass der Bundestag das gesetzgebende Organ ist. Die Frage nach #blacklivesmatter wurde in allen nach ihren Informationsquellen geordneten Gruppen hinweg häufiger richtig beantwortet als die Frage nach der Gesetzgebungsbefugnis des Parlaments.[8] Auch die jungen Erwachsenen, welche sich hauptsächlich aus journalistischen Quellen informieren, wissen über die auf Social Media gesetzten Themen besser Bescheid als über politisches Grundlagenwissen. Diese Lücke ist in der Gruppe der 14- bis 17-Jährigen sogar noch größer. Dies zeigt, welche Bedeutung der Diskurs in sozialen Netzwerken selbst in den Teilen der Gesellschaft hat, welche sich primär anderer Quellen zur Information bedienen.

5. Geänderte rechtliche Lage

5.1. NetzDG

Am 1. Oktober 2017 ist das Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft getreten. Das Gesetz soll die Rechtsdurchsetzung in sozialen Netzwerken verbessern und zur konsequenten Löschung strafbarer Inhalte führen. Hintergrund waren auch die zunehmende Verbreitung solcher Inhalte im digitalen Raum und die Erfahrungen aus dem US-Wahlkampf 2016.[9]

Kernelement des NetzDG ist die Pflicht für Betreiber von sozialen Netzwerken, „offensichtlich rechtswidrige Inhalte“ nach Meldung durch Nutzer:innen binnen 24 Stunden und „rechtswidrige Inhalte“ nach 7 Tagen von der Plattform zu entfernen. Für die Moderationspraxis wichtig sind die Verpflichtung der Einrichtung von Beschwerdemöglichkeiten und die regelmäßige Berichterstattung über die Löschpraxis nach NetzDG.

Allerdings greift diese Pflicht nur, wenn der gemeldete Inhalt den Tatbestand einer in §1 Abs. 3 genannten Strafnorm erfüllt. §1 Abs. 3 nennt unter anderem die Aufforderung zur Straftat, die Beleidigung oder das Verbreiten von Zeichen verfassungsfeindlicher Organisationen. Insbesondere Desinformation erfüllen selten den Tatbestand solcher Straftatbestände.

 

5.2. Medienstaatsvertrag

An die Stelle des Rundfunkstaatsvertrages (RStV) trat am 7. November 2020 der Medienstaatsvertrag (MStV). Dieser soll in Reaktion auf die fortschreitende Digitalisierung der Medienlandschaft den rechtlichen Rahmen an die veränderten Bedingungen anpassen.[10] Dazu ist der auf den Rundfunk fokussierte Medienbegriff des RStV durch den Begriff Medienplattform (§ 2 Nr. 14 MStV) ersetzt worden, welcher unabhängig von der verwendeten Technologie zur Verbreitung der Inhalte alle Dienste umfasst, die mediale Inhalte zu einem Gesamtangebot aufarbeiten.

  

Daneben umfasst der MStV auch sog. Medienintermediäre (§ 2 Nr. 16 MStV), welche ohne Zusammenfassung zu einem Gesamtangebot auch journalistisch-redaktionelle Inhalte sortieren und allgemein zugänglich präsentieren. Darunter fallen bspw. Suchmaschinen oder soziale Netzwerke, welche, wie oben dargestellt, einen stark wachsenden Einfluss auf die öffentliche Meinungsbildung haben.[11]

Ein Ziel des MStV ist es, Meinungsvielfalt und kommunikative Chancengleichheit in der Medienlandschaft sicherzustellen.[12] Erreicht werden soll dieses Ziel durch umfassende Pflichten für Medienintermediäre, soweit sie einen Einfluss auf die öffentliche Meinungsbildung haben.[13] In diesem Fall sind sie unter anderem zur Offenlegung der Funktionsweise ihrer Algorithmen verpflichtet und dürfen diese nicht so festlegen, dass einzelne journalistisch-redaktionelle Inhalte systematisch und ohne Rechtfertigung benachteiligt werden. Auch müssen Social Bots als solche gekennzeichnet werden (§ 18 Abs. 3). Die Prüfung von Verstößen liegt bei den Landesmedienanstalten, die Anzeigen für vermutliche Verstöße von Medienanbietern erhalten können.

Wie viele solcher Anzeigen die Landesmedienanstalten im Rahmen der Bundestagswahl 2021 erhalten werden und wie schnell sie diese bearbeiten können, wird maßgeblich den Erfolg des MStV zur Sicherung der Meinungsvielfalt in sozialen Netzwerken bestimmen.

 

6. Europäischer Rechtsrahmen

Auf europäischer Ebene gibt es vier regulatorische Vorhaben, die den rechtlichen Rahmen des Online-Wahlkampfs für Plattformen und Parteien verändern werden.

6.1. Europäischer Aktionsplan für Demokratie

Der Europäische Aktionsplan für Demokratie ist ein im Dezember 2020 vorgestelltes Rahmenprojekt der EU-Kommission, welches die Stärkung der Zivilgesellschaft und den krisenfesteren Ausbau der europäischen Demokratien zum Ziel hat. Diese Ziele sollen durch mehrere Verordnungen und Maßnahmen erreicht haben, welche in drei Teilbereiche untergliedert sind: (1) Förderung freier und fairer Wahlen, (2) Ausbau der Medienfreiheit und (3) Bekämpfung von Desinformation. Insbesondere Vorhaben des ersten und dritten Teilbereichs werden den Online-Wahlkampf der Parteien beeinflussen. So sollen unter anderem die Vorgaben zur Transparenz politischer Werbung ausgebaut werden, Verpflichtungen und Rechenschaftspflichten von Online-Plattformen in Fällen von Desinformation erweitert und Hetze im Internet stärker bekämpft werden. Auch soll ein neues Instrumentarium zur Abwehr ausländischer Einmischung in Wahlen innerhalb der EU geschaffen werden.[14]

6.2. Digital Services Act (DSA)

Am 15. Dezember 2020 stellte die EU-Kommission ihren Entwurf des Digital Services Act (DSA) vor. Der DSA soll als Nachfolger der E-Commerce Richtlinie einen Beitrag zu einer sicheren und vertrauenswürdigen Online-Kommunikation in Form einer EU-Verordnung leisten (Art. 1 Abs. 2 lit. b).[15]

Intermediäre haften dem Entwurf nach unverändert für illegale Inhalte, sobald sie von diesen Kenntnis erlangen. Um eine solche Kenntniserlangung zu ermöglichen, muss ein effizientes Beschwerdemanagement gewährleisten, dass Meldungen über mutmaßlich illegale Inhalte schnell und zuverlässig bearbeitet werden. Hier lassen sich Ähnlichkeiten zum deutschen NetzDG erkennen.[16] Auch sollen die Transparenzpflichten für Intermediäre ausgeweitet werden: Diese müssen unter anderem ihre Vorgaben zur Moderation und Beschränkung von Inhalten öffentlich zugänglich machen. Außerdem sind die Plattformanbieter zur Vorlage jährlicher Transparenzberichte verpflichtet, die Informationen über gelöschte Inhalte sowie über Empfehlungsalgorithmen beinhalten müssen.

Ein weiterer wichtiger Regelungsgegenstand des DSA sind die “Very Large Online Platforms” (VLOPs). Darunter werden “systemrelevante” Plattformen mit mind. 45 Mio. monatlichen aktiven Nutzern in Europa verstanden. Die Kommission misst solchen Plattformen einen besonderen Einfluss auf öffentliche Debatten zu und sieht in ihnen wichtige Informationsquellen im Rahmen öffentlicher Meinungsbildung. Ebenfalls sieht die Kommission Risiken in der Reichweite dieser Plattformen, wie die Verbreitung illegaler Inhalte, Manipulationen oder Einschränkungen bei der Grundrechtsausübung, insbesondere der freien Meinungsäußerung.[17] Der DSA sieht mögliche Maßnahmen zur Minimierung dieser Risiken vor, z. B. die öffentlich zugängliche Archivierung aller geschalteten Werbeanzeigen (Art. 30), eine verstärkte Inhaltsmoderation (Art. 27) sowie die Pflicht zur jährlichen Durchführung einer unabhängigen Prüfung, ob die Vorgaben aus dem DSA eingehalten wurden (Art. 28).[18]

Die Themen Fake News und Desinformation, sofern sie nicht ohnehin unter illegale Inhalte fallen, sind in der DSA hingegen kaum geregelt.[19]

 

6.3. Digital Markets Act (DMA)

Der gleichzeitig mit dem DSA vorgestellte Entwurf des Digital Markets Act (DMA) richtet sich gegen die Geschäftspraktiken so genannter Gatekeeper. Dies sind Unternehmen, welche eine große Zahl von Kund:innen mit einer großen Zahl von Unternehmen zusammenbringen und einen signifikanten Einfluss auf den EU-Binnenmarkt über eine gewisse Dauer ausüben (Art. 3 Abs. 1 DMA-E). Dazu zählen auch die im Rahmen der Meinungsbildung zur Bundestagswahl besonders relevanten sozialen Netzwerke. Die großen Netzwerke genießen ihre Vormachtstellung insbesondere durch die enormen Datenmengen ihrer Nutzer, welche ihnen ein optimales Produktangebot ermöglichen. Um diese datenbasierte Vormachtstellung aufzulösen, sollen Gatekeeper in der Verwendung der Daten beschränkt und zur Weitergabe der Daten verpflichtet werden. So dürfen u. a. die von gewerblichen Nutzern gewonnenen Daten nicht im Wettbewerb mit diesen Nutzern verwendet werden. Auch ist die Pflicht vorgesehen, Daten zum Verhalten von Kund:innen und mit Werbeanzeigen konfrontierter Personen an die Unternehmen weiterzureichen, welche die Werbung geschaltet bzw. das Produkt verkauft haben.

 

6.4. Data Governance Act (DGA)

Der seit 2018 durch die Datenschutzgrundverordnung (DSGVO) enorm gestärkte Datenschutz brachte neben seinen Vorteilen für Verbraucher:innen auch bedeutende Hemmnisse für Unternehmen. So gaben 2020 in einer Umfrage des Branchenverbandes Bitkom gut die Hälfte der befragten Unternehmen an, durch die DSGVO in ihrer Innovationskraft beschränkt zu sein.[20] Die mit der DSGVO einhergehenden Erschwernisse sollen durch den Data Governance Act (DGA), dessen Entwurf am 25. November 2020 vorgestellt wurde, in Form einer Europäischen Verordnung vermindert werden. Unter Wahrung der Standards der DSGVO soll insbesondere das Vertrauen der Nutzer:innen in die Sicherheit der Verarbeitungsprozesse personenbezogener Daten gestärkt und so die Möglichkeit zur Datenverwendung durch Unternehmen und Forschungseinrichtungen erhöht werden.[21]

 

Kernelement ist die Vorgabe, dass personenbezogene Daten nicht durch die Internetkonzerne selbst, sondern durch eine neutrale Stelle anonymisiert und treuhänderisch verwaltet werden sollen. Die Aufsicht dieser intermediären Stelle obliegt jeweils einer vom Mitgliedstaat geschaffenen Aufsichtsbehörde im Hauptsitz des Intermediärs.[22]

Auch schafft der DGA die rechtliche Grundlage für den so genannten Datenaltruismus. Durch eine für die gesamte EU gültige Freigabe können alle Nutzer:innen freiwillig ihre Daten für Zwecke von allgemeinem Interesse zur Verfügung stellen. Die Überwachung der Datennutzung liegt hier ebenfalls bei den nationalen Aufsichtsbehörden.[23] Durch den mit dem DGA erhofften Ausgleich von Datenschutz einerseits und Interesse von Forschung und Industrie an der Nutzung der Daten andererseits soll Europa zum „most data empowered continent“ werden, wie EU-Kommissar Thierry Breton bei der Vorstellung des Entwurfs sagte.[24]

 

7. Zusammenfassung

Mit Blick auf die Bundestagswahl 2017 und die Erkenntnisse der letzten Jahre drängt sich der Eindruck auf, dass die Probleme von Meinungsbeeinflussungen und -manipulationen im Vorfeld der Wahl durch Social Bots, Dark Ads, Fake News oder andere Phänomene sozialer Medien bzw. ganz allgemein des Diskurses im digitalen Raum bisher keine bedeutende Rolle in der Beeinflussung von Prozessen der gesellschaftlichen Selbstbestimmung gespielt haben.

Nicht zuletzt durch die COVID-19-Pandemie sind die Leben der Bürger:innen und Wähler:innen indes viel digitaler geworden; Kommunikationsplattformen sind zu zentralen Akteuren politischer Kommunikationsprozesse geworden. Diese Entwicklung ist auch den politischen Parteien nicht verborgen geblieben, sodass das Superwahljahr geprägt sein wird von einem „Online-Wahlkampf“. Die Parteien sehen sich dabei einer dynamischen, öffentlichen Diskussionslandschaft ausgesetzt, versuchen aber auch, diese bewusst zu prägen.

Verschiedene gesetzliche Anstrengungen auf nationaler wie auch europäischer Ebene mit dem Digital Services Act als neuestem Vorhaben versuchen, vor allem Medienintermediäre vermehrt in die Pflicht zu nehmen, um Verstöße unterschiedlicher Natur von Nutzer:innen zu ahnden. So sieht vor allem das NetzDG auch das Entfernen rechtswidrig geposteter Inhalte durch die sozialen Netzwerke gegen die Nutzer:innen nach dem Maßstab des StGB vor.

Ob die gesetzlichen Regelungen allerdings ausreichend sein werden, um mit der rasanten Entwicklung der Verlagerung politischer Debatten in die digitale Welt Schritt zu halten und den damit immer stärker zu Tage tretenden Problemen von Fake News und Hate Speech angemessen entgegenzuwirken, wird sich erst in den nächsten Monaten zeigen. Es ist gut möglich, dass rechtliche Herausforderungen sich erst vor den online stattfindenden gesellschaftlichen Selbstbestimmungsprozessen der nächsten Monate zu Problemen erhärten, die dann ab 2022 normativ gelöst werden müssen.

Foto: Alana Harris / unsplash

 
[1]           Bundeswahlleiter, Pressemitteilung Nr. 34/17 vom 12.10.17, Bundestagswahl 2017: Endgültiges Ergebnis.
[2]           Grimme Lab, Digitale Nachlese zur BTW 2017.
[3]           Süddeutsche Zeitung, Bundestagswahl und AfD: Viel News um wenig Fake.
[4]           Grimme Lab, Digitale Nachlese zur BTW 2017, https://www.grimme-lab.de/2017/10/02/digitale-nachlese-zur-bundestagswahl-2017/.
[5]           Ibid.
[6]           Hölig, S., & Hasebrink, U. (2016). Reuters Institute Digital News Survey 2016: Ergebnisse für Deutschland. Hamburg: Hans-Bredow-Institut (Arbeitspapiere des Hans-Bredow-Instituts, 38), S. 59.
[7]           Hölig, S., Hasebrink, U., & Behre, J. (2020). Reuters Institute Digital News Report 2020: Ergebnisse für Deutschland. Hamburg: Hans-Bredow-Institut (Arbeitspapiere des Hans-Bredow-Instituts, 50), S. 6 und S. 14.
[8]           Hasebrink, Uwe; Hölig, Sascha; Wunderlich, Leonie (2021): #UseTheNews. Studie zur Nachrichtenkompetenz Jugendlicher und junger Erwachsener in der digitalen Medienwelt. Hamburg: Verlag Hans-Bredow-Institut, April 2021 (Arbeitspapiere des Hans-Bredow-Instituts | Projektergebnisse Nr. 55). DOI: https://doi.org/10.21241/ssoar.72822, S. 33ff.
[9]           Vgl. BT-Drs. 18/12356, S. 1, http://dipbt.bundestag.de/dip21/btd/18/123/1812356.pdf.
[13]         BeckOK InfoMedienR/Martini, MStV Präambel, Rn. 45, https://beck-online.beck.de/Bcid/Y-400-W-BECKOKINFOMEDIEN-G-MSTV-NAME-PRAEAMBEL-Gl-C.
[14]         Europäische Kommission, Europäischer Aktionsplan für Demokratie, https://ec.europa.eu/info/strategy/priorities-2019-2024/new-push-european-democracy/european-democracy-action-plan_de.
[15]         Europäische Kommission, 2020/0361 (COD), S. 49, https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020PC0825&from=de.
[16]         Berberich/Seip, Der Entwurf des Digital Service Act, GRUR-Prax 2021, 4 (5), https://beck-online.beck.de/Bcid/Y-300-Z-GRURPRAX-B-2021-S-4-N-1.
[17]         Ibid.
[18]         Europäische Kommission, 2020/0361 (COD), S. 68, https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020PC0825&from=de.
[19]         Berberich/Seip, Der Entwurf des Digital Service Act, GRUR-Prax 2021, 4 (7), https://beck-online.beck.de/Bcid/Y-300-Z-GRURPRAX-B-2021-S-4-N-1.
[20]         Bitkom, “Jedes 2. Unternehmen verzichtet aus Datenschutzgründen auf Innovationen”, https://www.bitkom.org/Presse/Presseinformation/Jedes-2-Unternehmen-verzichtet-aus-Datenschutzgruenden-auf-Innovationen.
[21]         Europäische Kommission, “Proposal for a Regulation on European Data Governance (Data Governance Act”, https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-data-governance-data-governance-act.
[22]         Rieke, EU-Data Governance Act, bvdw.org, https://www.bvdw.org/der-bvdw/news/detail/artikel/eu-data-governance-act/.
[23]         Ibid.
[24]         Ibid.
  • Aufrufe: 2782