Social Media Platforms release transparency reports on blocked content – Here’s what you need to know


Facebook, Twitter, Youtube and Google+ have published the legally required transparency reports under the Network Enforcement Act (NetzDG). The figures refer to the period from January 1 to June 30, 2018.

All platforms provide information on the number of complaints submitted under the new law. Complaints can be filed by individual users as well as independent complaints offices. In addition, the number of content deleted or blocked for users in Germany and the size of the teams responsible for moderation are disclosed.


Number of complaints: 214.827 (Users: 144.836 | Complaints offices: 69.991)
Number of removed/blocked contents: 58.297 (Users: 42.025 | Complaints offices: 16.272)

At Youtube, all content reported in accordance with the Network Enforcement Act is checked for the 22 criminal offences contained in the law and for the community guidelines. The latter is done in the first step. Subsequent checking is carried out in accordance with NetzDG. If the reported content violates the Platform Guidelines, it will be deleted. Contents that are classified as illegal after one of the 22 offences are blocked for users in Germany. Google+, Facebook and Twitter also follow this path.

Google+ and Youtube share a moderation team of about 100 people. A service provider was hired for these complaints specifically. The two Google networks go a different way in the reporting process compared to the other platforms: The 22 offences summarised in the Network Enforcement Act have been divided into seven categories. Google justifies this with a simplification for the reporting users. Individual laws can appear in several categories.

Youtube uses various mechanisms to detect illegal content and violations of its own guidelines. This includes the use of hashes for automatic detection of terrorist and child pornographic content that has already been blocked, machine learning for automated detection of extremist content and content reported by users.

In most cases where action was taken after a report, content was deleted globally because it violated community policies. The lower share was withheld in Germany according to the NetzDG. However, this does not mean that a proportion of the deleted content was not also illegal. The moderators only check for these violations in the first step.

Source: Google


Number of complaints: 2.769 (Users: 2.741 | Complaints offices: 28)
Number of removed/blocked contents: 1.277 (Users: 1.257 | Complaints offices: 20)

Google+ has more than 2 million registered users in Germany and thus falls under the Network Enforcement Act. However, the number of active users is likely to be significantly lower. You automatically get a Google+ account when you create a Google Account, for example to use YouTube or Google Docs.

Since complaints on YouTube and Google+ are handled by the same moderation team, all procedures are the same.

Source: Google


Number of complaints: 886 (Users: 773 | Complaints offices: 113)
Number of reported content: 1.704
Number of removed/blocked contents: 362

On Facebook, as on the other platforms, several items can be reported at once as a violation of the Network Enforcement Act. However, only Facebook makes a distinction between complaints (a total of 886) and the number of reported content (a total of 1,704).

According to the company, Facebook’s moderation team consists of about 65 people. In the first step, reports are checked at Facebooks‘ German service partner Arvato. If not removed in accordance with community guidelines, all cases will be reported to the Legal Takedown Request Operations Team, who will check the content for violations. In unclear cases, internal company lawyers are consulted.

Facebook writes about the multilingualism of the moderation team:

The members of the team have a wide range of linguistic skills, including German, English, French, Turkish and Arabic, to take account of the linguistic diversity of the German population.

The 2 to 3 million people in Germany who speak Russian remain unmentioned.

The low number of complaints, especially in comparison to YouTube and Twitter, can be explained by Facebook’s reporting procedures for complaints according to the Network Enforcement Law. While complaints on YouTube can be reported directly via the familiar reporting function next to videos and comments, Facebook users must use another form that cannot be accessed directly via the posts or comments.

Source: Facebook | Facebook’s NetzDG reporting form


Number of complaints: 264.818 (Users: 244.064 | Complaints offices: 20.754)
Number of removed/blocked contents: 28.665 (Users: 27.112 | Complaints offices: 1.533)

Twitter also checks messages for violations of community guidelines and the NetzDG and deletes or blocks them for users in Germany.

At Twitter about 50 people are working on the handling of complaints. Most of the content complained about was reported as incitement to hatred.

Source: Twitter

Reports are hard to compare

On all four platforms, complaints about several contents can be summarized in one message. However, because only Facebook provides information about the number of complaints and additionally the number of reported content, a comparison between the platforms is difficult. If the average user reports one video on YouTube, but the average Twitter user reports three tweets, the ratio between messages and measures would look significantly different.

Youtube Google+ Facebook Twitter
Complaints 214.827 2.769 886 264.818
Number of removed/blocked contents 58.297 1.277 362 28.665

The ratio of the responsible moderators to complaints to be dealt with is interesting as well: Youtube and Google+ share a moderation team of about 100 people to handle complaints according to the NetzDG. The total number of complaints is 217,596 in the period from January to the end of June 2018. 65 people are employed by Facebook dealing with  complaints under the Network Enforcement Act. The total number of complaints on Facebook was 886. Twitter had 50 people handling a total of 264,818 complaints.

The scope of the transparency reports varies considerably. The documentation of Google+ and Youtube also includes a number of examples of reported content. For example, a speech by Angela Merkel was reported as both a terrorist content and hate speech. In the video she talks about the role of Islam in Germany. Youtube’s less surprising decision: The video is still available in Germany.

Twitter’s report is the shortest: Its ten pages are filled with a whole collection of large screenshots explaining the reporting procedure.

A ranking of reports by word count:

Youtube 5.525
Facebook 3.624
Google+ 3.118
Twitter 969

It seems that the Federal Ministry of Justice has not given any concrete guidelines for the presentation of the figures, so that the transparency reports come out quite differently. In order to be able to compare the figures between the platforms, some effort is necessary in each case. Twitter’s overview of the reported content for each offence has been included as an image in the report, which makes it unsearchable. In the case of Youtube and Google+, it is not possible to draw any conclusions about the decisions after the respective criminal offence.

Reported violations at a glance


Complaints Removed & blocked content
Hate speech/Political extremism 75.892 24.804
Personality rights violation or insult 45.190 11.428
Pornographic content 27.308 7.338
Inappropriate or dangerous content 22.813 2.765
Violence 21.349 3.964
Privacy 12.460 4.673
Terrorist or unconstitutional content 9.815 3.325


Complaints Removed & blocked content
Hate speech/Political extremism 1.121 554
Personality rights violation or insult 564 196
Terrorist or unconstitutional content 409 245
Pornographic content 249 121
Privacy 153 35
Violence 138 77
Inappropriate or dangerous content 135 49


Paragraph Complaints Removed & blocked content
Insult (§ 185) 460 114
Defamation (§ 186) 407 90
Intentional Defamation (§ 187) 342 66
Incitement to hatred (§ 130) 247 74
Public incitement to crime (§ 111) 123 26
Threatening the commission of a felony (§ 241) 119 31
Rewarding and approving of offences (§ 140) 95 21
Violation of intimate privacy by taking photographs (§ 201a) 95 16
Defamation of religions, religious and ideological associations (§ 166) 92 24
Dissemination of depictions of violence (§ 131) 86 18
Breach of the public peace by threatening to commit offences (§ 126) 83 16
Using symbols of unconstitutional organisations (§ 86a) 66 21
Dissemination of propaganda material of unconstitutional organisations (§ 86) 64 13
Forgery of data intended to provide proof (§ 269) 56 3
Forming of criminal or terrorist organisations (§§ 129 – 129b) 30 0
Treasonous Forgery (§ 100a) 27 1
Encouraging the commission of a serious violent offence endangering the state (§ 91) 26 1
Preparation of a serious violent offence endangering the state (§ 89a) 24 2
Distribution, acquisition and possession of child pornographic writings (§ 184b in conjunction with § 184d) 19 0


Paragraph Complaints Removed & blocked content
Incitement to hatred (§ 130) 82.095 10.191
Insult (§ 185) 75.925 4.882
Defamation (§ 186) 16.474 503
Public incitement to crime (§ 111) 12.179 2.363
Defamation of religions, religious and ideological associations (§ 166) 10.867 943
Intentional Defamation (§ 187) 10.082 309
Threatening the commission of a felony (§ 241) 8.241 1.323
Dissemination of propaganda material of unconstitutional organisations (§ 86) 7.416 1.019
Using symbols of unconstitutional organisations (§ 86a) 6.505 2.522
Violation of intimate privacy by taking photographs (§ 201a) 6.034 242
Forming of criminal or terrorist organisations (§§ 129 – 129b) 5.770 840
Distribution, acquisition and possession of child pornographic writings (§ 184b in conjunction with § 184d) 4.846 1.505
Rewarding and approving of offences (§ 140) 4.394 619
Breach of the public peace by threatening to commit offences (§ 126) 4.254 539
Dissemination of depictions of violence (§ 131) 3.719 513
Forgery of data intended to provide proof (§ 269) 2.167 21
Preparation of a serious violent offence endangering the state (§ 89a) 1.257 143
Treasonous Forgery (§ 100a) 1.170 21
Encouraging the commission of a serious violent offence endangering the state (§ 91) 933 147

German version here.

Im Vergleich: Social-Media-Plattformen veröffentlichen Transparenzberichte zu geblocktem Content


Facebook, Twitter, Youtube und Google+ haben die gesetzlich vorgeschriebenen Transparenzberichte zu Meldungen nach dem Netzwerkdurchsetzungsgesetz veröffentlicht. Die Zahlen beziehen sich auf den Zeitraum vom 1. Januar bis 30. Juni 2018.

Alle Plattformen machen Angaben zur Zahl der Beschwerden, die nach dem NetzDG eingereicht wurden. Diese stammen sowohl von individuellen Nutzern als auch unabhängigen Beschwerdestellen. Außerdem wird offen gelegt, wie viele Inhalte gelöscht oder für Nutzer in Deutschland geoblockt wurden und wie groß die jeweils mit der Moderation beauftragten Teams sind.


Anzahl der Beschwerden: 214.827 (User: 144.836 | Beschwerdestellen: 69.991)
Anzahl entfernter/gesperrter Inhalte: 58.297 (User: 42.025 | Beschwerdestellen: 16.272)

Bei Youtube werden alle nach dem NetzDG gemeldeten Inhalte auf die 22 im Gesetz enthaltenen Straftatbestände sowie auf die Community-Richtlinien geprüft. Letzteres erfolgt im ersten Schritt. Nach NetzDG wird im Anschluss geprüft. Verstößt der gemeldete Inhalt gegen die Plattform-Richtlinien, wird er gelöscht. Inhalte, die nach einem der 22 Straftatbestände als rechtswidrig eingestuft werden, werden für Deutschland geoblockt. Diesen Weg gehen auch Google+, Facebook und Twitter.

Google+ und Youtube teilen sich ein Moderationsteam von etwa 100 Personen. Für die NetzDG-Beschwerden wurde ein Dienstleister engagiert. Die beiden Google-Netzwerke gehen im Meldeverfahren einen anderen Weg als die anderen Plattformen: Die 22 Straftatbestände, die im Netzwerkdurchsetzungsgesetz zusammen gefasst werden, wurden in sieben Kategorien unterteilt. Google begründet das mit einer Vereinfachung für die meldenden Nutzer. Einzelne Gesetze können in mehreren Kategorien auftauchen.

Youtube setzt außerdem auf verschiedene Mechanismen, um rechtswidrige Inhalte und Verstöße gegen die hauseigenen Richtlinien aufzuspüren. Dazu gehört die Verwendung von Hashes zur automatischen Erkennung von terroristischen und kinderpornographischen Inhalten, die zuvor bereits gesperrt wurden; Machine Learning zur automatisierten Erkennung extremistischer Inhalte und Meldungen durch User.

Die meisten gemeldeten Inhalte, die eine Maßnahme des Moderationsteams zur Folge hatte, verstießen gegen die Community-Richtlinien und wurden entfernt. Der geringere Anteil wurde nach dem NetzDG in Deutschland zurückgehalten. Das heißt allerdings nicht, dass nicht auch ein Anteil der gelöschten Inhalte rechtswidrig war. Die Moderatoren prüfen nur im ersten Schritt auf diese Verstöße.

Quelle: Google


Anzahl der Beschwerden: 2.769 (User: 2.741 | Beschwerdestellen: 28)
Anzahl entfernter/gesperrter Inhalte: 1.277 (User: 1.257 | Beschwerdestellen: 20)

Google+ hat mehr als 2 Millionen angemeldete Nutzer in Deutschland und fällt damit unter das NetzDG. Die Zahl der aktiven User dürfte dennoch deutlich geringer sein. Einen Google+-Account erhält man beim Anlegen eines Google-Kontos, etwa zur Nutzung von Youtube oder Google Docs, automatisch.

Da Beschwerden bei Youtube und Google+ vom selben Moderationsteam betreut werden, gleichen sich alle Verfahrensweisen.

Quelle: Google


Anzahl der Beschwerden: 886 (User: 773 | Beschwerdestellen: 113)
Anzahl gemeldeter Inhalte: 1.704
Anzahl entfernter/gesperrter Inhalte: 362

Bei Facebook können, wie auf den anderen Plattformen, mehrere Inhalte auf einmal als Verstoß gegen das NetzDG gemeldet werden. Allerdings macht nur Facebook die Unterscheidung zwischen Beschwerden (insgesamt 886) und der Anzahl gemeldeter Inhalte (insgesamt 1.704).

Facebooks Moderationsteam besteht nach Angaben des Unternehmens aus etwa 65 Personen. Im ersten Schritt werden Meldungen bei Facebooks deutschem Dienstleistungspartner Arvato grprüft. Erfolgt keine Entfernung nach den Community-Richtlinien, werden alle Fälle an das Legal Takedown Request Operations Team weitergegeben, das die Inhalte auf Rechtsverstöße prüft. In unklaren Fällen werden unternehmensinterne Juristen konsultiert.

Zur Mehrsprachigkeit des Moderationsteams schreibt Facebook:

Die Mitglieder des Teams verfügen über breit gefächerte sprachliche Kompetenz, darunter Deutsch, Englisch, Französisch, Türkisch und Arabisch, um der Sprachenvielfalt der deutschen Bevölkerung Rechnung zu tragen.

Unerwähnt bleiben die 2 bis 3 Millionen Menschen in Deutschland, die Russisch sprechen.

Die geringe Zahl der Beschwerden, gerade im Vergleich zu Youtube und Twitter, lässt sich durch Facebooks Meldeverfahren für Beschwerden nach dem NetzDG erklären. Während Beschwerden bei Youtube direkt über die bekannte Meldefunktion neben Videos und Kommentaren gemeldet werden können, müssen Facebook-Nutzer ein eigenes Formular nutzen, das nicht direkt über die Posts oder Kommentare aufrufbar ist.

Quelle: Facebook | NetzDG-Meldeformular


Anzahl der Beschwerden: 264.818 (User: 244.064 | Beschwerdestellen: 20.754)
Anzahl entfernter/gesperrter Inhalte: 28.665 (User: 27.112 | Beschwerdestellen: 1.533)

Auch bei Twitter werden Meldungen jeweils nach Verstößen gegen die Community-Richtlinien und das NetzDG geprüft und entsprechend gelöscht oder für User in Deutschland gesperrt.

Bei Twitter arbeiten etwa 50 Personen an der Bearbeitung der Beschwerden. Der größte Anteil der beanstandeten Inhalte wurde als volksverhetzend gemeldet.

Quelle: Twitter

Vergleich: Schwierig.

Auf allen vier Plattformen können Beschwerden über mehrere Inhalte in einer Meldung zusammengefasst werden. Weil aber nur Facebook Auskunft über die Anzahl der Beschwerden und zusätzlich der Anzahl gemeldeter Inhalte macht, gestaltet sich ein Vergleich zwischen den Plattform schwierig. Wenn der durchschnittliche User auf Youtube jeweils ein Video meldet, der durchschnittliche Twitter-User aber drei Tweets, sähen die Verhältnisse zwischen Meldungen und Maßnahmen deutlich anders aus.

Youtube Google+ Facebook Twitter
Beschwerden 214.827 2.769 886 264.818
Entfernte & gesperrte Inhalte 58.297 1.277 362 28.665

Interessant ist das Verhältnis von zuständigen Moderatoren und zu bearbeitenden Beschwerden: Youtube und Google+ teilen sich ein Moderationsteam zur Bearbeitung von Beschwerden nach dem NetzDG. Das Team umfasst etwa 100 Menschen. Die Zahl der Beschwerden liegt zusammengefasst bei 217.596 im Zeitraum von Januar bis Ende Juni 2018. Facebook beschäftigt etwa 65 Personen mit NetzDG-Beschwerden. Deren Gesamtzahl liegt bei 886. Bei Twitter waren 50 Personen mit der Bearbeitung von insgesamt 264.818 Beschwerden betraut.

Die Transparenzberichte variieren deutlich in ihrem Umfang. Die Dokumentation von Google+ und Youtube umfasst zusätzlich noch eine Reihe von Beispielen für gemeldete Inhalte. Beispielsweise wurde eine Rede von Angela Merkel sowohl als terroristischer Inhalt als auch als Hassrede gemeldet. Sie spricht im Video über die Zugehörigkeit des Islams zu Deutschland. Youtubes weniger überraschende Entscheidung: Das Video ist in Deutschland weiterhin abrufbar.

Twitters Transparenzbericht fällt am sparsamsten aus: Die zehn Seiten sind mit einer ganzen Sammlung großflächiger Screenshots zur Erklärung des Meldeverfahrens gefüllt.

Ein Ranking der Berichte nach ihrer Wortzahl:

Youtube 5.525
Facebook 3.624
Google+ 3.118
Twitter 969

Das Bundesjustizministerium hat allem Anschein nach für die Darstellung der Zahlen keine konkreten Vorgaben gegeben, sodass die Transparenzberichte jeweils recht unterschiedlich daher kommen. Um die Zahlen zwischen den Plattformen vergleichen zu können, ist jeweils einiger Aufwand nötig. Twitters Übersicht zu den nach den jeweiligen Straftatbeständen gemeldeten Inhalten wurde als Bild in den Bericht eingefügt. Damit ist er nicht durchsuchbar. Im Fall von Youtube und Google+ lassen sich keine Rückschlüsse auf die Entscheidungen nach den jeweiligen Straftatbeständen ziehen.

Gemeldete Verstöße im Überblick

Hier als Google Doc zur freien Verwendung.


Beschwerden Entfernte/gesperrte Inhalte
Hassrede/Politischer Extremismus 75.892 24.804
Persönlichkeitsrechtverletzung oder Beleidigung 45.190 11.428
Pornografische Inhalte 27.308 7.338
Ungeeignete oder gefährliche Inhalte 22.813 2.765
Gewalt 21.349 3.964
Privatsphäre 12.460 4.673
Terroristische oder verfassungswidrige Inhalte 9.815 3.325


Beschwerden Entfernte/gesperrte Inhalte
Hassrede/Politischer Extremismus 1.121 554
Persönlichkeitsrechtverletzung oder Beleidigung 564 196
Terroristische oder verfassungswidrige Inhalte 409 245
Pornografische Inhalte 249 121
Privatsphäre 153 35
Gewalt 138 77
Ungeeignete oder gefährliche Inhalte 135 49


Paragraph Beschwerden Entfernte/gesperrte Inhalte
Beleidigung (§ 185) 460 114
Üble Nachrede (§ 186) 407 90
Verleumdung (§ 187) 342 66
Volksverhetzung (§ 130) 247 74
Öffentliche Aufforderung zu Straftaten (§ 111) 123 26
Bedrohung (§ 241) 119 31
Belohnung und Billigung von Straftaten (§ 140) 95 21
Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen (§ 201a) 95 16
Beschimpfung von Bekenntnissen, Religionsgesellschaften und Weltanschauungsvereinigungen (§ 166) 92 24
Gewaltdarstellung (§ 131) 86 18
Störung des öffentlichen Friedens durch Androhung von Straftaten (§ 126) 83 16
Verwenden von Kennzeichen verfassungswidriger Organisationen (§ 86a) 66 21
Verbreiten von Propagandamitteln verfassungswidriger Organisationen (§ 86) 64 13
Fälschung beweiserheblicher Daten (§ 269) 56 3
Bildung krimineller oder terroristischer Vereinigungen (§§ 129 – 129b) 30 0
Landesverräterische Fälschung (§ 100a) 27 1
Anleitung zur Begehung einer schweren staatsgefährdenden Gewalttat (§ 91) 26 1
Vorbereitung einer schweren staatsgefährdenden Gewalttat (§ 89a) 24 2
Verbreitung, Erwerb und Besitz kinderpornographischer Schriften (§ 184b in Verbindung mit § 184d) 19 0


Paragraph Beschwerden Entfernte/gesperrte Inhalte
Volksverhetzung (§ 130) 82.095 10.191
Beleidigung (§ 185) 75.925 4.882
Üble Nachrede (§ 186) 16.474 503
Öffentliche Aufforderung zu Straftaten (§ 111) 12.179 2.363
Beschimpfung von Bekenntnissen, Religionsgesellschaften und Weltanschauungsvereinigungen (§ 166) 10.867 943
Verleumdung (§ 187) 10.082 309
Bedrohung (§ 241) 8.241 1.323
Verbreiten von Propagandamitteln verfassungswidriger Organisationen (§ 86) 7.416 1.019
Verwenden von Kennzeichen verfassungswidriger Organisationen (§ 86a) 6.505 2.522
Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen (§ 201a) 6.034 242
Bildung krimineller oder terroristischer Vereinigungen (§§ 129 – 129b) 5.770 840
Verbreitung, Erwerb und Besitz kinderpornographischer Schriften (§ 184b in Verbindung mit § 184d) 4.846 1.505
Belohnung und Billigung von Straftaten (§ 140) 4.394 619
Störung des öffentlichen Friedens durch Androhung von Straftaten (§ 126) 4.254 539
Gewaltdarstellung (§ 131) 3.719 513
Fälschung beweiserheblicher Daten (§ 269) 2.167 21
Vorbereitung einer schweren staatsgefährdenden Gewalttat (§ 89a) 1.257 143
Landesverräterische Fälschung (§ 100a) 1.170 21
Anleitung zur Begehung einer schweren staatsgefährdenden Gewalttat (§ 91) 933 147

Englische Version hier.

Meine Rede im Europarat zum Hearing „Migrant Invasion – Breaking the Myth“


Am 26. Juni 2018 hatte ich die Gelegenheit, zehn Minuten Redezeit bei einem Hearing der No Hate Parliarmentary Alliance zu füllen. Was ich dort gesagt habe, dokumentiere ich hier (Spoiler: Es gibt einen semi-guten Fax-Witz am Ende).

Anfang 2016 hatte ich die Idee für eine Karte, auf der Falschmeldungen und Gerüchte über Geflüchtete zusammengetragen werden. Tatsächlich geht es aber nicht nur um Geflüchtete, sondern generell People of Color, weil sie alle zu Anderen, zu Geflüchteten gemacht wurden, als im Spätsommer 2015 Hunderttausende nach Deutschland kamen.

Inzwischen sind etwa 500 dieser erfundenen Meldungen aus Deutschland, Österreich und der Schweiz auf verzeichnet. Aber das ist nur die Spitze des Eisbergs, nämlich die Geschichten, die von Medien (vor allem Lokalmedien) aufgegriffen und widerlegt wurden.

Die meisten dieser Falschmeldungen handeln von Raub und Diebstahl, sexualisierter Gewalt und Sozialleistungen, die Geflüchtete angeblich im Überfluss erhalten.

In den vergangenen zwei Jahren habe ich viel mit Menschen aus anderen Ländern gesprochen: Aus Kanada, Singapur, Japan, Kenia. In Finnland gibt es inzwischen ein ähnliches Projekt wie Hoaxmap. In all diesen Ländern gibt es Falschmeldungen über die vermeintlich “Fremden”.

In Japan zum Beispiel erzählte man sich nach dem Reaktorunglück in Fukushima, dass die Häuser, die von den Flüchtenden zurückgelassen wurden, von Koreanern geplündert worden waren.

Neben meiner Arbeit an Hoaxmap bin ich auch als Faktencheckerin tätig. Das Feld ist in Europa vergleichsweise jung, es gibt nicht viele von uns. Wir sind so neu, dass wir noch gar nicht richtig wissen, inwiefern unsere Arbeit wirkt und ob wir auch diejenigen erreichen, die an Falschmeldungen glaubten und diese auch verbreitet haben.

Wir können aber voneinander lernen. Und von denjenigen, die die Arbeit schon deutlich länger machen als wir, wie Snopes und Politifact in den USA und AfricaCheck in Südafrika, Kenia und Nigeria, um nur einige zu nennen.

Unsere Arbeit besteht darin, Falschmeldungen zu widerlegen, mit Zahlen zu jonglieren und Aussagen, Statistiken, Meldungen einzuordnen, Kontext zu liefern.

Das ist natürlich auch eine Aufgabe des Journalismus im Allgemeinen. Wir aber reagieren auf die Geschichten, die uns im Alltag begegnen. In sozialen Medien ebenso wie in Wahlkampfreden oder den sogenannten “Alternativmedien”.

Meistens sind diese Falschmeldungen ohne großen Aufwand produziert. Ganz im Gegenteil, die meisten dürften innerhalb von Minuten erstellt worden sein. Ganz selten werden Bilder oder Videos manipuliert. Es reicht schon, Dinge vollkommen aus dem Zusammenhang zu reißen.

Es gibt ein Bild von Angela Merkel, die zwischen jungen Frauen in weißen Hijabs steht und einen Blumenstrauß in der Hand hält.

Das Foto wurde bei einem Besuch in einem türkischen Flüchtlingslager aufgenommen, damals, als Erdogan und Merkel über ihr Flüchtlingsabkommen verhandelten.

Zwei Jahre in Folge kursierte das Bild in sozialen Medien, begleitet von der absurden Behauptung, die Kanzlerin würde Kinderbräuten zur Hochzeit gratulieren. Das Foto wurde tausendfach unter größter Empörung geteilt.

Vor der Bundestagswahl im vergangenen Jahr kursierte auf Facebook ein Video: Zu sehen sind etwa 20 Personen, die an einer Straßenbahnhaltestelle in Leipzig stehen. Sie alle sind in lange, helle Gewänder gekleidet.

Für die Seite, die das Video teilte, galt das als klarer Beweis für die Islamisierung Deutschlands. Nun sind 20 Menschen an einer Haltestelle in einer Stadt mit mehr als 500.000 Einwohnern maximal ein Indiz dafür, dass die nächste Bahn ein wenig voller wird, aber sicher kein Beweis für eine Islamisierung.

Unsere Recherche klärte damals den Kontext des Videos auf: Es zeigte nicht einmal Muslime, sondern Christen aus Eritrea.

Die mussten schon des öfteren als vermeintlicher Beleg für die Islamisierung herhalten: etwa weil sie an den Außenwänden einer Kirche beteten oder in einer Kirche Lieder sangen. Im ersten Fall hieß es, Muslime würden an eine Kirche urinieren, im zweiten Fall wurde gar die ganze Kirche durch islamische Lieder islamisiert.

Dieses Beispiel zeigt, dass Teile unserer Gesellschaft wirklich nicht den geringsten Aufwand betreiben, zwischen all den unterschiedlichen Menschen zu differenzieren, die die Worte “Migration” oder “Flucht” in sich einen. Wer schwarze oder braune Haut hat, ist sicher Muslim. Und Islam bedeutet dann auch immer gleich Islamismus.

Ich bin froh, ein Teil dieses Berufszweiges zu sein, der sich so rasend schnell entwickelt. Aber die Arbeit kann auch ermüden.

Zum Einen, weil sich alles wiederholt. Ich hoffe, dass ich das Bild von Frau Merkel und den vermeintlichen Kinderbräuten in diesem Jahr nicht mehr sehen muss. Aber die vergangenen Jahre lehren uns: diese Bilder lassen sich vortrefflich recyclen. Das impliziert auch, dass unsere Faktenchecks noch nicht genügend Menschen erreicht haben.

Zum Anderen kann der ständige Wettlauf ermüdend sein. Es ist ein Wettlauf mit Menschen, die sich immer neue, immer verschwörerische Erklärungen für ihre angeblichen Fakten ausdenken und im schlimmsten Fall keinerlei moralischem Kodex folgen. Und wenn gar nichts mehr geht, heißt es dann einfach: “Okay, DAS war jetzt nicht echt, aber es hätte ja sein KÖNNEN!”

Wir leben in Zeiten, in denen hochrangige europäische Politiker ebenso wie rechte Aktivisten den Mythos von einem alten, reichen Mann füttern, der Fluchtbewegungen steuert. Diese und ähnliche antisemitische Verschwörungstheorien werden tausendfach auf der ganzen Welt verbreitet.

Zugleich haben Rechtspopulisten es geschafft, Antisemitismus und Gewaltverbrechen, vor allem gegenüber Frauen, zu einem Problem der “Anderen”, der Geflüchteten, Migranten, People of Color zu machen. Ganz so, als hätte beides nicht schon lange vor 2015 zu unserem Alltag gehört.

Und natürlich gibt es unter Asylsuchenden Menschen, die Straftaten, auch Gewaltverbrechen, verüben. Zu behaupten, das wäre nicht so, wäre ziemlich weltfremd.

Wir müssen Desinformation, zumindest in Teilen, als Symptom verstehen. Ähnlich wie der Hass, der sich im Netz Bahn gebrochen hat, sind sie Beleg für die Radikalisierung und Normalisierung von menschenfeindlichen Einstellungen in allen Teilen, auch in der Mitte der Gesellschaft.

Und sie sind Teil eines Agendasettings, dem Politik und Medien heute viel zu oft nachgeben.

Desinformation entscheidet keine Wahlen. Von solchen monokausalen Erklärungen sollten wir uns verabschieden.

Aber sie trägt dazu bei, Diskussionen in digitalen Räumen zu verunmöglichen und Menschen mit radikalen Ansichten zusätzlich zu radikalisieren.

Falschmeldungen, die rassistische Stereotype aufgreifen, erreichen und aktivieren vor allem diejenigen, die für diese Botschaften bereits empfänglich sind.

Es braucht gesamtgesellschaftliche Anstrengung, um Desinformation die Stirn zu bieten. Das schließt die Politik ebenso ein wie Behörden, Medien, Zivilgesellschaft und auch die Plattformbetreiber.

Alarmismus hingegen sorgt höchstens für zusätzliche Verunsicherung in der Bevölkerung, die gleichzeitig glaubt, Desinformation und Fakes zu erkennen, andererseits aber von einer Bedrohung für die Demokratie ausgeht. Und möglicherweise ist Desinformation auch EINE Bedrohung für die Demokratie.  Und alle müssen Wege finden, damit umzugehen.

Dazu gehört der transparente Umgang mit Fehlern ebenso wie die Stärkung des Bewusstseins von Pressestellen in Politik und Behörden im Umgang mit Desinformation. Es ist nicht nur “dieses Internet”. Das, was im Netz passiert und verbreitet wird, hat ganz reale Folgen für uns viele von uns.

Es ist nicht immer einfach, die Balance zwischen Genauigkeit und schneller Reaktion zu finden. Aber es ist nötig, in diesen Bereichen gezielt zu schulen.

Das gilt auch für uns Journalisten. Im Eifer des Gefechts und Druck des Wettbewerbs passieren Fehler. Und sobald Medien Falschmeldungen aufgreifen und verbreiten, ist das Publikum ungleich größer und die Chance, ebenso viele Menschen mit einem Faktencheck zu erreichen, deutlich kleiner.

Dennoch sollten Politiker sich den Begriff “Fake News” nicht aneignen, um professionell arbeitende Journalisten anzugreifen. Wir sollten unterscheiden zwischen Fehlern auf der einen und geplanter Täuschung auf der anderen Seite.

Desinformation in seiner aktuellen Erscheinungsform lässt sich auch nicht allein durch die technischen Gegebenheiten der meisten sozialen Netzwerke erklären.

Ja, Facebook, Twitter und Co bedienen eine Aufmerksamkeitsökonomie, die vor allem über Emotionen funktioniert. Vor allem über negative Emotionen wie Angst und Wut.

Wir sollten allerdings auch nicht außer Acht lassen, dass viele Falschmeldungen sich auch über Messengerdienste wie Whatsapp verbreiten. Und hier gibt es keine Likes und wütenden Emojis die zur weiteren Verbreitung einer Nachricht beitragen.

Whatsapp-Nachrichten mit Falschmeldungen ähneln vielmehr den Kettenmails von damals, in denen vor angeblichen HIV-infizierten Nadeln in Kinositzen und an Tankstellen gewarnt wurde.

Klar ist, auch Plattformbetreiber können nicht die Augen vor dem verschließen vor dem, was User in sozialen Netzwerken tun. Es bedarf langfristiger und antizipierender Strategien statt schneller Lösungen, wenn schon alles zu spät ist.

Klar ist aber auch, dass die Zeit der Faxgeräte vorbei ist, und es an der Zeit ist für Strategien im Umgang mit diesen Begleiterscheinungen der Digitalisierung.

Das Internet geht nicht mehr weg. Soviel ist klar.


Futter für die Echokammer: die Sächsische Zeitung und der Pressekodex

Die Sächsische Zeitung hat entschieden, sich künftig nicht mehr an die Richtlinie 12.1 des Pressekodexes zu halten. Von nun an sollen Nationalitäten von Tatverdächtigen benannt werden – ob es sich um Deutsche handelt oder nicht.

Es liegt uns sehr am Herzen, die überwiegende Mehrheit der nicht kriminellen Flüchtlinge in Dresden und den anderen Gemeinden unseres Verbreitungsgebiets zu schützen und sie vor Diskriminierung zu bewahren.


Viele SZ-Mitarbeiter sind im Gegenteil überzeugt davon: Gerade das Nichtnennen der Nationalität von Straftätern und Verdächtigen kann Raum für Gerüchte schaffen, die häufig genau denen schaden, die wir doch schützen möchten. Wie die meisten unserer Kollegen halten auch vier von fünf SZ-Abonnenten die Nennung der Nationalität von Tätern nicht für diskriminierend und plädieren ebenfalls dafür, die Nationalität zu nennen.

Die Argumentation ist so im Ansatz – weil statistisch gestützt – durchaus nachzuvollziehen, die Redaktion vernachlässigt in ihrer Gleichung jedoch eine entscheidende Größe: Die Polizei. Denn die Auswahl der Inhalte von Pressemitteilungen obliegt eben nicht der Redaktion. Diese Vorselektion – die selbstverständlich nach Ort und jeweiligem Diensthabenden stark variieren kann – spiegelt sich in einem Kommentar der Volksstimme (Sachsen-Anhalt) aus dem Januar wider:


Die SäZ zur Rolle der Polizei:

Allerdings können wir auch weiterhin nur Straftaten vermelden, von denen uns die Polizeibehörden auch in Kenntnis setzen, was mit Bagatellfällen wie kleineren Diebstählen oder Schwarzfahren für gewöhnlich nicht geschieht. Und wenn die Polizei die Herkunft der Täter und Verdächtigen bei schwereren Vergehen nicht nennt, können wir es ebensowenig. Tut sie es doch, werden wir auch diese Information nicht verschweigen.

Wenn also durchaus ein Bewusstsein für die Anfälligkeit dieses Verfahrens besteht – obgleich hier nur auf die Art der Straftat selbst, nicht auf die Möglichkeit, dass eine Vorauswahl der Meldungen nach Nationalität ebenso wie racial profiling eine Rolle spielen könnten, verwiesen wird – fußt diese Entscheidung nun auf den Wünschen der AbonenntInnen:

Ein wichtiges Motiv für unsere Entscheidung waren ebenfalls Erkenntnisse aus der Abonnentenbefragung vom Frühjahr. Obwohl die SZ die Täterherkunft bisher eher selten nannte – meist nur, wenn sie in direktem Zusammenhang mit der Tat stand –, schätzen viele Leser die Zahl krimineller Flüchtlinge in Sachsen erheblich höher ein, als sie ist. Dieses Überschätzen von Ausländerkriminalität ist bundesweit ein gravierendes Problem, denn es kann rassistische Vorurteile befördern.

Ein durchaus nachvollziehbare Begründung, die ursächlich aber nur bedingt durch die Redaktion steuerbar ist und zugleich nur am Rande berücksichtigt, dass auch die LeserInnen sowie einschlägig agitierende UserInnen, Blogs und Facebook-Pages ihrerseits selektieren, welche Artikel sie teilen, verstärkt das letztendlich nur das Narrativ des kriminellen Ausländers. Futter für die Echokammer.

Zum Umgang der Polizei mit nicht-weißen und migrantischen Opfern bitte außerdem bei Trollbar und dem Migazin nachlesen.

The Passive Aggressive Password Machine


Sichere Passwörter sind immer gut. Externe Motivation beim Erstellen sicherer Passwörter bestimmt auch.

The PaP Machine is a little sideproject and exploration of minimalistic design by Tim Holman and Tobias van Schneider. To make the world
a better place, one smile at a time.

Its simple really, you enter a password…
any password and the PaP Machine will be honest* about your passwords strength.

* Honest like a lawyer, or your cold hearted X.


Programmieren lernen mit Star Wars

Für einen kleinen JavaScript-Einblick reicht das allemal: Kinder ab 11 Jahren lernen spielend, BB-8 (UND Leia, Rey, R2D2 und C3PO) durch die Wüste zu steuern. Das drag-and-drop-Blockprinzip dürfte vielen schon geläufig sein. leistet mit „Star Wars: Building a Galaxy with Code“ einen Beitrag zur Hour of Code – bis zum Dezember sollen dann auch weitere Sprachen und mobilen Versionen zur Verfügung stehen.

Und der Soundtrack ist auch in Ordnung.

Menschen mit Respekt behandeln.

„Political Correctness“ ist inzwischen ebenso Kampfbegriff wie „Gutmenschen“ oder „Sozialromantik“: Kaum jemand benutzt es, um das eigene Anliegen zu umschreiben. Dabei geht letztendlich nur darum, Menschen, mit Respekt zu behandeln.

The truth is that accusations of „political correctness“ are a sort of catchall charge that’s used against people who ask for more sensitivity to a particular cause than someone else is willing to give — a way to dismiss issues as frivolous in order to justify ignoring them.

Einfacher Browserhack von Byron Clark deshalb: Per Browser Add-On (u.a.: Firefox, Chrome) den Text ersetzen:

Gute Idee! Ich ersetze direkt auch noch „Asylgegner“ und „Asylkritiker“ durch „Rassist*innen“. Und „Harald Martenstein“ durch „griesgrämiger älterer Herr“.

Wenn im Bundesamt für Sicherheit in der Informationstechnik bei Wikipedia editiert wird..

… lösen sich Rassismus, Homophobie und Sexismus schon mal in Luft auf:asmussenwiki

via @bundesedit

Schnippsel S01E01


This is What Your Face Looks Like To Facebook (Kyle Chayka, Medium)

Sterling Crispin’s “Data Masks” are haunting portraits that don’t actually depict any one person. Instead, they use raw data to show how technology perceives humanity. Reverse-engineered from surveillance face-recognition algorithms and then fed through Facebook’s face-detection software, the Data Masks “confront viewers with the realization that they’re being seen and watched basically all the time,” Crispin says.

Plain Text Offenders

Eine Sammlung von Websites und Diensten, die Passwörter in plain text speichern.

Hidden ‚Je Suis Charlie‘ message emerges in a very unexpected place (Christina Warren, Mashable)

Mit etwas Verzögerung, aber die Idee ist toll:

One such place is with a hidden ASCII message in the WHOIS text for any domain with a .fr top-level domain name, the domain for France.

A WHOIS query shows who has registered a domain name, its IP address (sometimes) and other types of address information. If you enter a WHOIS command in a terminal for a domain ending in .fr, „Je Suis Charlie“ comes up in ASCII.

 Griechenland Reloaded: Können Commons die Basis für einen wirtschaftlichen Neubeginn sein? (Vasilis Kostakis, Berliner Gazette)

Vasilis Kostakis über die digitalen Strategien Syrizas. Fazit:

Alles in allem Anliegen einer politischen Agenda, bei der Commons im Mittelpunkt einer ökonomischen und sozialen Neuordnung stehen.

Schnippsel – Pilotfolge

Facebook’s auto-playing videos in an ISIS era (Sam Machkovech, Ars Technica)

Vor einigen Monaten implementierte Facebook eine Autoplay-Lösung für Videos. Seitdem werden sämtliche verlinkten bzw. auf Facebook hochgeladenen Videos automatisch – ohne Ton – abgespielt, sobald man an ihnen vorbei scrollt.

Der IS dürfte dieses „Feature“ begrüßen, denn:

Should an ISIS beheading or similarly disturbing content find its way to someone’s Facebook news feed while that user hasn’t opted out of the site’s video feature—a process possibly more complicated than it needs to be—they’re in for a rude awakening.

Sich vor einer solchen Situation zu bewahren ist mindestens mühevoll, denn das automatische Abspielen muss für jede Plattform einzeln abgestellt werden.


Helping Jakarta track flooding in real time to save more lives (Mark Gillis, Twitter)

In Zusammenarbeit mit Twitter sammeln die Universität von Wollongong und BPBD DKI Jakarta auf  Daten zu überfluteten Gebieten während des Monsuns.

The SMART Infrastructure Facility from the University of Wollongong and BPBD DKI Jakarta have launched, a research project that leverages community participation to report flood-related Tweets and provide live updates for faster response times during flooding emergencies. This program is a first-in-the-world collaboration between a disaster management agency, a university and Twitter to use social data to both build a working model and provide real-time response to a natural disaster.


Build Ferguson Youth Tech Program (Hands Up United, gofundme)

The revolution will be digitized. Computer programming and web development are 21st century skills that can be used to activate ideas, grow small businesses and build grass-root movements. As a way to close the digital divide and address the issues of economic equality, Hands Up United will lead technical training workshops to the Ferguson community.

Hands Up United is a youth led movement that started in Ferguson, MO after the brutal execution of Mike Brown by Ferguson Police Officer, Darren Wilson. A moment that sparked a movement on the grounds of cities across the nation is once again sparking a movement, but on the digital front.


 Wireless in Gaza: the young entrepreneurs beating the blockades (Patrick Kingsley, The Guardian)

Gaza hat ein eigenes Uber:

Notoriously, Uber lets you hitch a ride with any random driver; Wasselni doesn’t. You can ride-share with one of your Facebook friends, but the only strangers on the system are vetted cabbies. More symbolically, while Uber was conceived by a brash American bored of waiting for taxis in the San Francisco rain, Wasselni was dreamed up by Mariam Abultewi, then a 22-year-old refugee waiting for a lift in the middle of the Gaza strip.