Die freie Meinung:

Geschlossene Leserforen bei Spiegel Online

Von Published On: 13. April 2017Kategorien: Allgemein

Eine Auswertung zeigt, dass die Kommentierbarkeit von Artikeln bei Spiegel Online in den letzten zwei Jahren massiv zurückgegangen ist. Insbesondere bei heiklen Themen wie Syrien, Afghanistan oder der Flüchtlingskrise bleibt das Leserforum meist ausgeschaltet. Nun äußert sich die Chefredaktion zu den Hintergründen. Derweil arbeitet Google an einer neuen Software.

 

Die Zahlen sind brisant: Bei nur noch gut 50 Prozent der Artikel erlaubt Spiegel Online (SPON) mittlerweile ein Leserforum, also einen offenen Austausch von Meinungen des Publikums. Vor zwei Jahren lag dieser Wert noch bei etwa 80 Prozent. Ermittelt hat das der Informatiker David Kriesel, der von 2014 bis 2016 sämtliche SPON-Artikel automatisiert abspeicherte und diesen riesigen Datenpool nun nach verschiedenen Kriterien auswertet. Öffentlich machte er einige Zahlen bereits im letzten Dezember bei einem Vortrag auf dem 33. Kongress des Chaos Computer Clubs in Hamburg.

 

Auf meine Nachfrage ermittelte Kriesel nun die Kommentierbarkeit bei einzelnen Themenfeldern. Artikel werden von den Redakteuren mit Keywords versehen, nach denen man bei einer Auswertung filtern kann. Einige der Ergebnisse: Artikel mit dem Keyword „Syrien“ ließen sich vor zwei Jahren noch zu gut 70 Prozent kommentieren. Mit Beginn des deutschen Kriegseintritts in Syrien Ende 2015 fiel dieser Wert jedoch rapide. Seither aktiviert SPON nur noch bei etwa 30 Prozent der Texte ein Leserforum. Von 960 Artikeln, die zwischen November 2015 und November 2016 zum Thema Syrien erschienen, war bei 642 eine Leserkommentierung nicht möglich, das entspricht 67 Prozent.

 

Öffentliche Leserdebatten zum Syrienkrieg wurden also massiv eingeschränkt – und das zu einem Zeitpunkt, da das Interesse daran besonders groß war. Man darf fragen: Was soll das? Wessen Interessen dient diese breite Abschaltung von Leserdebatten?

 

„Frequenz kontroverser Themen hat zugenommen“

Ein ganz ähnliches Bild zeigt sich bei den Keywords „Flüchtlinge“, „Afghanistan“ oder „Türkei“ (siehe Grafiken). Es entsteht der Eindruck, dass bei politisch heiklen Themen, wo die Bevölkerung mehrheitlich andere Ansichten vertritt, als die Regierung oder die Nato, eine Kommentierung zunehmend unerwünscht ist.

 

David Kriesel, der diese Informationen bereitstellte, weist darauf hin, dass Daten generell unterschiedlich interpretierbar seien und er sich keine Interpretation zu eigen mache. Matthias Streitz, Mitglied der Chefredaktion von Spiegel Online, kommentierte die Daten mir gegenüber so:

 

„Wir entscheiden nach unseren Erfahrungswerten. Es gibt Themen, zu denen typischerweise besonders viele diffamierende oder sogar hetzerische Kommentare einlaufen. Deswegen gibt es rund um die Themen Israel, Holocaust, Antisemitismus in der Regel gar keine Kommentierungsmöglichkeit, und bei Themen wie Kriminalität, Syrien oder Flüchtlinge ist die Kommentierbarkeit eher die Ausnahme. (…)

 

Der Rückgang der Kommentierbarkeit hat vor allem damit zu tun, dass die Frequenz kontroverser Themen, die extrem problematische bis unsendbare Kommentare anziehen, in den vergangenen Jahren zugenommen hat – das begann gefühlt rund um den Maidan, ging weiter mit Krim-Konflikt, Erdogan, Pegida, Flüchtlingen, Terrorismus. Wir beobachten eine stärkere Polarisierung der Öffentlichkeit, auch eine Zunahme von hate speech. Unsere Forumsmoderatoren sind schlechter als vor noch ein paar Jahren in der Lage, die Masse der problematischen Postings zu sichten und zu filtern.“

 

Diese Stellungnahme lässt Raum für Fragen. Warum ist SPON inzwischen „schlechter in der Lage“, die Beiträge zu sichten? Hat die Kommentierung derart zugenommen, dass die Mitarbeiter überlastet sind? Fehlt es an Geld für weiteres Personal? Die Chefredaktion ließ entsprechende Nachfragen offen. Wiederum entsteht der Eindruck, dass die Vielzahl kritischer bis ablehnender Leserkommentare den Journalisten schlicht „lästig“ wird, man sich lieber gar nicht mehr damit befassen möchte.

 

Doch Streitz widerspricht: Das Thema Nutzerkommentare liege ihm „und der ganzen SPON-Chefredaktion tatsächlich sehr am Herzen“. Aber warum dann die Einschränkung, insbesondere bei heiklen Themen? Sind Beleidigungen und Respektlosigkeit tatsächlich so vorherrschend in den Kommentaren? Oder ist das bloß ein Vorwand? Streitz dementiert: Nein, „Hate Speech“ sei keine Ausrede, sondern „ein wirkliches, bedrohliches, außer Kontrolle geratenes Phänomen“. Die Nachfrage, ob es zu der unterstellten massiven Zunahme sogenanner „Hate Speech“ im SPON-Forum überprüfbare Zahlen gäbe, oder ob es sich eher um einen persönlichen Eindruck handle, ließ er unbeantwortet.

 

Keine Antwort gab es auch auf die Frage, wie man bei SPON den Begriff „Hate Speech“ überhaupt definiere. Der Terminus ist in Mode gekommen und ebenso wie bei „Fake News“ – oder beim Klassiker „Verschwörungstheorie“ – fehlen die klaren Kriterien für eine Abgrenzung zur legitimen Polemik bzw. zur Meinung oder Kritik.

 

Die Unschärfe, der Graubereich, scheint gewollt zu sein. Denn de facto werden diese Begriffe benutzt, um unerwünschte Äußerungen pauschal abzuwerten. Wer „Fake News“, „Verschwörungstheorie“ oder „Hate Speech“ sagt, der möchte Texte löschen oder zumindest mit dem Makel des Anstößigen versehen – ob zurecht oder nicht, sei dabei dahingestellt.

 

Dass Begriffe wie „Fake News“ und „Hate Speech“ in den Leitmedien so populär geworden sind, hat sicher einiges mit deren fortschreitendem Glaubwürdigkeitsverlust zu tun. Die Auflagen der großen Zeitungen sinken, der Einfluss und die Verbreitung der kritischen bis ablehnenden Stimmen hingegen wachsen. Die naheliegende Lösung, die „Störer abzuschalten“, wirkt dabei kurzsichtig. Denn die legitime Kritik (aber auch die Hetze) verschwinden ja nicht dadurch, dass sich die Leitmedien „Augen und Ohren zuhalten“ und ihre eigenen Portale für Leserkommentare zunehmend schließen.

 

Zudem bietet der Ton in den Leserforen ein oft unverstellteres Abbild der Wirklichkeit, ähnlich wie Gespräche am Stammtisch oder in der Kantine. Gerade deswegen lesen viele ja in Foren: um zu erfahren, was andere Leute (die keine Journalisten sind) denken, welche Emotionen sie bewegen, welche Argumente auf den Tisch kommen. Wozu sonst braucht es ein Leserforum? Zur Selbstbestätigung der Redaktion wohl kaum. Wer die Kommentierbarkeit einschränken möchte, weil der Ton so rau ist, der negiert, dass es eine Sphäre außerhalb der Medienwelt gibt, in der man sich, angesichts heftiger politischer und sozialer Umbrüche, nicht immer brav und höflich wie in einem Uni-Seminar äußert.

 

Natürlich ist keine Zeitung verpflichtet, jeden Kommentar zu veröffentlichen. Aufrufe zur Gewalt und Volksverhetzung sind sowieso strafbar (§ 111 und § 130 StGB), ebenso wie Beleidigung (§ 185 bis § 200 StGB). Doch es wird eben nicht mit geltendem Recht argumentiert, sondern mit unscharfen und juristisch irrelevanten Begriffen, wie dem erwähnten „Hate Speech“.

 

Medien als politische Akteure

Wie schon erwähnt, betont die SPON-Chefredaktion, das Abschalten habe vor allem damit zu tun, „dass die Frequenz kontroverser Themen, die extrem problematische bis unsendbare Kommentare anziehen, in den vergangenen Jahren zugenommen hat“. Doch was heißt das nun? Im Grunde sagt SPON damit, dass man frei geäußerte Leserkommentare, also ungelenkte Debatten, eigentlich nur „bei schönem Wetter“ möchte. Die Diskussionen dürften sozusagen „nicht aus dem Ruder laufen“, die Leser sollten sich doch bitte nicht so aufregen.

 

Und an dieser Stelle wird es seltsam. Denn so würden unabhängige und unparteiische Medien, die ja nach allgemeinem Verständnis gerade gesellschaftliche Konflikte beleuchten, eigentlich nicht argumentieren. Eher würde man solche Überlegungen von Unternehmens- oder Regierungssprechern erwarten, die öffentliche Konflikte nach Möglichkeit zu vermeiden suchen und die um ein gutes Image einer höheren Instanz besorgt sind.

 

Und da liegt dann vielleicht auch der Kern des Problems. Medien werden von einem großen Teil des Publikums inzwischen als politische Akteure wahrgenommen. Journalisten, so der Eindruck, orientieren sich immer mehr an bestimmten Narrativen, also an moralisch wertenden Sichtweisen auf das politische Geschehen. Herr X ist gut, Herr Y böse, der eine ein Freiheitskämpfer, der andere ein Terrorist. Russland bedroht den Westen, Trump die Demokratie, Griechenland muss sparen.

 

Solche Narrative werden zu Leitbildern, andere Sichtweisen fallen unter den Tisch, ganz so, wie es in der PR-Branche üblich ist, wo es um Verkaufen geht und nicht um allseitige Information. Der Politikwissenschaftler und Medienkritiker Ulrich Teusch meinte dazu jüngst in einem Fernsehinterview mit ARD Alpha:

 

„Es gibt ein Trump-Narrativ, es gibt das Russland-Narrativ, (…) es gab im Vorfeld des Irakkriegs 2003 das Irak-Narrativ, es gab das Libyen-Narrativ usw. usf. Um das mal ganz deutlich zu sagen: Ich kann verstehen, dass sich Politiker Narrative ausdenken, wenn sie irgendetwas erreichen wollen. (…) Dass Journalisten Narrative akzeptieren und bedienen, halte ich für einen unglaublichen Verstoß gegen die journalistische Ethik. Ein Journalist, der sich einem Narrativ fügt, oder ein Journalismus, der sich einem Narrativ fügt, ist ein Widerspruch in sich selbst.“

 

SPON kündigte auf Nachfrage unterdessen an, zukünftig wieder mehr Leserforen zulassen zu wollen:

 

„Zum einen haben wir uns vorgenommen, einfach wieder verstärkt darauf zu achten, das Forum zu aktivieren. Wir wollen das Thema auch technisch unterfüttern und Software testen, die uns beim Screenen und Sortieren der Forumspostings hilft, so dass wir hoffentlich die Menge der geschalteten Foren wieder erhöhen können, weil wir die aus unserer Sicht nicht sendefähigen Posts schneller finden.“

 

Der Ansatz läuft mehr oder weniger auf das maschinelle Ausfiltern unerwünschter Worte hinaus. Google hat ein entsprechendes Programm schon entwickelt, welches nun angeblich „das Gift aus Kommentarspalten saugen“ soll, wie aktuell berichtet wird. Bei der New York Times ist es bereits im Einsatz, auch andere Medien sollen es kostenlos nutzen dürfen. Google testet diese Software namens „Perspective“ zur Zeit. Auf der Produkt-Webseite kann jeder Internetnutzer zur Probe eigene Kommentare eingeben und sich deren „Giftigkeit“ anzeigen lassen. So hofft man, den Algorithmus noch zu verfeinern. Versuchsweise habe ich einige Sätze eingegeben.

 

Die Ergebnisse:

 

• I think this is honest. (Ich denke, das ist ehrlich.) – 2% toxic

 

• I think this is dishonest. (Ich denke, das ist unehrlich.) – 23% toxic

 

• The government does a good job. (Die Regierung arbeitet gut.) – 3% toxic

 

• The government seems corrupt. (Die Regierung erscheint korrupt.) – 38% toxic

 

• The government is more corrupt than ever. (Die Regierung ist korrupter als je zuvor.) – 54% toxic

 

Klar scheint: Negative Äußerungen werden tendenziell als „giftig“ eingeschätzt – ein hochproblematischer Ansatz. Zudem ist die vermeintliche „Künstliche Intelligenz“ der Software bislang nicht wirklich intelligent, wie folgendes Eingabeergebnis zeigt:

 

• The argument of the president seems ridiculous. (Das Argument des Präsidenten wirkt lächerlich.) – 37% toxic

 

• The argument of the president is far from ridiculous. (Das Argument des Präsidenten ist bei weitem nicht lächerlich.) – 48% toxic

 

Zensur, so heißt es immer wieder, gibt es in den Medien nicht, da ja nur ein Staat zensieren könne, was – zumindest in Deutschland oder den USA – nicht der Fall sei. Was aber, wenn viele große Medienhäuser einen gemeinsamen Algorithmus, etwa von Google, zum Ausfiltern von Beiträgen verwenden? Was, wenn sie ganz ähnliche Kriterien benutzen, wenn das Unerwünschte überall gleich definiert wird, die Definition aber über geltendes Recht hinausgeht?

 

Ist das dann bloß deshalb keine Zensur, weil Google ein privates Unternehmen ist und keine Regierungsbehörde? Setzt der Zensurbegriff nicht eigentlich viel tiefer an, nämlich bei der Verfügungsgewalt der Mächtigen – welche nicht zwingend staatliche Akteure sein müssen?

 

Google und die Geopolitik

Erwähnenswert sind in dieser Hinsicht einige personelle Überschneidungen zwischen Google und der US-Regierung. So wurde Google-Chef Eric Schmidt im März 2016 vom US-Verteidigungsminister zum Vorsitzenden eines Pentagon-Beraterkreises ernannt. Und Jared Cohen, ein enger Vertrauter von Schmidt und Chef von Googles Ideenschmiede „Jigsaw“, welche das neue „Leserforen-Entgiftungs“-Programm gerade entwickelt, arbeitete von 2006 bis 2010 im Planungsstab des US-Außenministeriums, erst unter Condoleezza Rice, dann unter Hillary Clinton.

 

In ihren Memoiren lobte Rice ihn persönlich dafür, „Social Media in unseren diplomatischen Werkzeugkasten integriert“ zu haben, was sich Jahre später bei den Demokratiebewegungen im Mittleren Osten „wunderbar ausgezahlt“ habe.

 

Julian Assange berichtete schon vor einiger Zeit in einem lesenswerten Text von einem persönlichen Treffen mit Schmidt und Cohen, sowie deren mehr oder weniger verdeckt aktiver Rolle in der US-Geopolitik.

 

Wenn in einem solchen Milieu, wo Konzern- und Regierungsinteressen auf intransparente Weise verschmelzen, Werkzeuge entwickelt werden, die den freien Informationsfluss durch zentral gesteuerte Algorithmen lenken und einschränken, dann geht es nicht mehr bloß um eine bessere, freundlichere Debattenkultur.

 

Solange außerdem keiner der handelnden Akteure – Google, Facebook, Correctiv, SPON etc. – klar definieren kann, was „Hate Speech“, „Fake News“ und „Verschwörungstheorie“ sein sollen und was nicht – also welche objektiven Kriterien man eigentlich anlegt -, solange dienen diese Begriffe mehr der Verschleierung als der Aufklärung. Solches „Framing“ und „Branding“ sind bekannte Mittel der politischen PR. Mit Journalismus haben sie so wenig zu tun wie mit demokratischer Willensbildung.

 

Quellen:

Spiegel Online: Analyse von Spiegel Online so tickt Deutschlands grösste Nachrichtenseite <https://netzpolitik.org/2016/analyse-von-spiegel-online-so-tickt-deutschlands-groesste-nachrichtenseite/>

YouTube: SpiegelMining – Reverse Engineering von Spiegel-Online (33c3)<https://www.youtube.com/watch?v=-YpwsdRKt8Q>

Bayerischer Rundfunk Alpha Forum Ulrich Teusch: <http://www.br.de/fernsehen/ard-alpha/programmkalender/ausstrahlung-942574.html>

Spiegel.de: Google-Jigsaw will Diskussionskultur im Internet retten <http://www.spiegel.de/netzwelt/web/google-jigsaw-will-diskussionskultur-im-internet-retten-a-1135927.html>

New York Times: The Times is Partnering with Jigsaw to Expand Comment Capabilities <http://www.nytco.com/the-times-is-partnering-with-jigsaw-to-expand-comment-capabilities/>

US Defense Gov: Pentagon to establish defense innovation advisory board <https://www.defense.gov/News/Article/Article/684366/pentagon-to-establish-defense-innovation-advisory-board>

Council on Foreign Relations: Cybersecurity and Iran technology <http://www.cfr.org/experts/cybersecurity-iran-technology-and-foreign-policy/jared-cohen/b16451#bio>

Newsweek: Assange – Google is not what it seems <http://europe.newsweek.com/assange-google-not-what-it-seems-279447>

Die freie Meinung:

Geschlossene Leserforen bei Spiegel Online

Von Published On: 13. April 2017Kategorien: Allgemein

Eine Auswertung zeigt, dass die Kommentierbarkeit von Artikeln bei Spiegel Online in den letzten zwei Jahren massiv zurückgegangen ist. Insbesondere bei heiklen Themen wie Syrien, Afghanistan oder der Flüchtlingskrise bleibt das Leserforum meist ausgeschaltet. Nun äußert sich die Chefredaktion zu den Hintergründen. Derweil arbeitet Google an einer neuen Software.

 

Die Zahlen sind brisant: Bei nur noch gut 50 Prozent der Artikel erlaubt Spiegel Online (SPON) mittlerweile ein Leserforum, also einen offenen Austausch von Meinungen des Publikums. Vor zwei Jahren lag dieser Wert noch bei etwa 80 Prozent. Ermittelt hat das der Informatiker David Kriesel, der von 2014 bis 2016 sämtliche SPON-Artikel automatisiert abspeicherte und diesen riesigen Datenpool nun nach verschiedenen Kriterien auswertet. Öffentlich machte er einige Zahlen bereits im letzten Dezember bei einem Vortrag auf dem 33. Kongress des Chaos Computer Clubs in Hamburg.

 

Auf meine Nachfrage ermittelte Kriesel nun die Kommentierbarkeit bei einzelnen Themenfeldern. Artikel werden von den Redakteuren mit Keywords versehen, nach denen man bei einer Auswertung filtern kann. Einige der Ergebnisse: Artikel mit dem Keyword „Syrien“ ließen sich vor zwei Jahren noch zu gut 70 Prozent kommentieren. Mit Beginn des deutschen Kriegseintritts in Syrien Ende 2015 fiel dieser Wert jedoch rapide. Seither aktiviert SPON nur noch bei etwa 30 Prozent der Texte ein Leserforum. Von 960 Artikeln, die zwischen November 2015 und November 2016 zum Thema Syrien erschienen, war bei 642 eine Leserkommentierung nicht möglich, das entspricht 67 Prozent.

 

Öffentliche Leserdebatten zum Syrienkrieg wurden also massiv eingeschränkt – und das zu einem Zeitpunkt, da das Interesse daran besonders groß war. Man darf fragen: Was soll das? Wessen Interessen dient diese breite Abschaltung von Leserdebatten?

 

„Frequenz kontroverser Themen hat zugenommen“

Ein ganz ähnliches Bild zeigt sich bei den Keywords „Flüchtlinge“, „Afghanistan“ oder „Türkei“ (siehe Grafiken). Es entsteht der Eindruck, dass bei politisch heiklen Themen, wo die Bevölkerung mehrheitlich andere Ansichten vertritt, als die Regierung oder die Nato, eine Kommentierung zunehmend unerwünscht ist.

 

David Kriesel, der diese Informationen bereitstellte, weist darauf hin, dass Daten generell unterschiedlich interpretierbar seien und er sich keine Interpretation zu eigen mache. Matthias Streitz, Mitglied der Chefredaktion von Spiegel Online, kommentierte die Daten mir gegenüber so:

 

„Wir entscheiden nach unseren Erfahrungswerten. Es gibt Themen, zu denen typischerweise besonders viele diffamierende oder sogar hetzerische Kommentare einlaufen. Deswegen gibt es rund um die Themen Israel, Holocaust, Antisemitismus in der Regel gar keine Kommentierungsmöglichkeit, und bei Themen wie Kriminalität, Syrien oder Flüchtlinge ist die Kommentierbarkeit eher die Ausnahme. (…)

 

Der Rückgang der Kommentierbarkeit hat vor allem damit zu tun, dass die Frequenz kontroverser Themen, die extrem problematische bis unsendbare Kommentare anziehen, in den vergangenen Jahren zugenommen hat – das begann gefühlt rund um den Maidan, ging weiter mit Krim-Konflikt, Erdogan, Pegida, Flüchtlingen, Terrorismus. Wir beobachten eine stärkere Polarisierung der Öffentlichkeit, auch eine Zunahme von hate speech. Unsere Forumsmoderatoren sind schlechter als vor noch ein paar Jahren in der Lage, die Masse der problematischen Postings zu sichten und zu filtern.“

 

Diese Stellungnahme lässt Raum für Fragen. Warum ist SPON inzwischen „schlechter in der Lage“, die Beiträge zu sichten? Hat die Kommentierung derart zugenommen, dass die Mitarbeiter überlastet sind? Fehlt es an Geld für weiteres Personal? Die Chefredaktion ließ entsprechende Nachfragen offen. Wiederum entsteht der Eindruck, dass die Vielzahl kritischer bis ablehnender Leserkommentare den Journalisten schlicht „lästig“ wird, man sich lieber gar nicht mehr damit befassen möchte.

 

Doch Streitz widerspricht: Das Thema Nutzerkommentare liege ihm „und der ganzen SPON-Chefredaktion tatsächlich sehr am Herzen“. Aber warum dann die Einschränkung, insbesondere bei heiklen Themen? Sind Beleidigungen und Respektlosigkeit tatsächlich so vorherrschend in den Kommentaren? Oder ist das bloß ein Vorwand? Streitz dementiert: Nein, „Hate Speech“ sei keine Ausrede, sondern „ein wirkliches, bedrohliches, außer Kontrolle geratenes Phänomen“. Die Nachfrage, ob es zu der unterstellten massiven Zunahme sogenanner „Hate Speech“ im SPON-Forum überprüfbare Zahlen gäbe, oder ob es sich eher um einen persönlichen Eindruck handle, ließ er unbeantwortet.

 

Keine Antwort gab es auch auf die Frage, wie man bei SPON den Begriff „Hate Speech“ überhaupt definiere. Der Terminus ist in Mode gekommen und ebenso wie bei „Fake News“ – oder beim Klassiker „Verschwörungstheorie“ – fehlen die klaren Kriterien für eine Abgrenzung zur legitimen Polemik bzw. zur Meinung oder Kritik.

 

Die Unschärfe, der Graubereich, scheint gewollt zu sein. Denn de facto werden diese Begriffe benutzt, um unerwünschte Äußerungen pauschal abzuwerten. Wer „Fake News“, „Verschwörungstheorie“ oder „Hate Speech“ sagt, der möchte Texte löschen oder zumindest mit dem Makel des Anstößigen versehen – ob zurecht oder nicht, sei dabei dahingestellt.

 

Dass Begriffe wie „Fake News“ und „Hate Speech“ in den Leitmedien so populär geworden sind, hat sicher einiges mit deren fortschreitendem Glaubwürdigkeitsverlust zu tun. Die Auflagen der großen Zeitungen sinken, der Einfluss und die Verbreitung der kritischen bis ablehnenden Stimmen hingegen wachsen. Die naheliegende Lösung, die „Störer abzuschalten“, wirkt dabei kurzsichtig. Denn die legitime Kritik (aber auch die Hetze) verschwinden ja nicht dadurch, dass sich die Leitmedien „Augen und Ohren zuhalten“ und ihre eigenen Portale für Leserkommentare zunehmend schließen.

 

Zudem bietet der Ton in den Leserforen ein oft unverstellteres Abbild der Wirklichkeit, ähnlich wie Gespräche am Stammtisch oder in der Kantine. Gerade deswegen lesen viele ja in Foren: um zu erfahren, was andere Leute (die keine Journalisten sind) denken, welche Emotionen sie bewegen, welche Argumente auf den Tisch kommen. Wozu sonst braucht es ein Leserforum? Zur Selbstbestätigung der Redaktion wohl kaum. Wer die Kommentierbarkeit einschränken möchte, weil der Ton so rau ist, der negiert, dass es eine Sphäre außerhalb der Medienwelt gibt, in der man sich, angesichts heftiger politischer und sozialer Umbrüche, nicht immer brav und höflich wie in einem Uni-Seminar äußert.

 

Natürlich ist keine Zeitung verpflichtet, jeden Kommentar zu veröffentlichen. Aufrufe zur Gewalt und Volksverhetzung sind sowieso strafbar (§ 111 und § 130 StGB), ebenso wie Beleidigung (§ 185 bis § 200 StGB). Doch es wird eben nicht mit geltendem Recht argumentiert, sondern mit unscharfen und juristisch irrelevanten Begriffen, wie dem erwähnten „Hate Speech“.

 

Medien als politische Akteure

Wie schon erwähnt, betont die SPON-Chefredaktion, das Abschalten habe vor allem damit zu tun, „dass die Frequenz kontroverser Themen, die extrem problematische bis unsendbare Kommentare anziehen, in den vergangenen Jahren zugenommen hat“. Doch was heißt das nun? Im Grunde sagt SPON damit, dass man frei geäußerte Leserkommentare, also ungelenkte Debatten, eigentlich nur „bei schönem Wetter“ möchte. Die Diskussionen dürften sozusagen „nicht aus dem Ruder laufen“, die Leser sollten sich doch bitte nicht so aufregen.

 

Und an dieser Stelle wird es seltsam. Denn so würden unabhängige und unparteiische Medien, die ja nach allgemeinem Verständnis gerade gesellschaftliche Konflikte beleuchten, eigentlich nicht argumentieren. Eher würde man solche Überlegungen von Unternehmens- oder Regierungssprechern erwarten, die öffentliche Konflikte nach Möglichkeit zu vermeiden suchen und die um ein gutes Image einer höheren Instanz besorgt sind.

 

Und da liegt dann vielleicht auch der Kern des Problems. Medien werden von einem großen Teil des Publikums inzwischen als politische Akteure wahrgenommen. Journalisten, so der Eindruck, orientieren sich immer mehr an bestimmten Narrativen, also an moralisch wertenden Sichtweisen auf das politische Geschehen. Herr X ist gut, Herr Y böse, der eine ein Freiheitskämpfer, der andere ein Terrorist. Russland bedroht den Westen, Trump die Demokratie, Griechenland muss sparen.

 

Solche Narrative werden zu Leitbildern, andere Sichtweisen fallen unter den Tisch, ganz so, wie es in der PR-Branche üblich ist, wo es um Verkaufen geht und nicht um allseitige Information. Der Politikwissenschaftler und Medienkritiker Ulrich Teusch meinte dazu jüngst in einem Fernsehinterview mit ARD Alpha:

 

„Es gibt ein Trump-Narrativ, es gibt das Russland-Narrativ, (…) es gab im Vorfeld des Irakkriegs 2003 das Irak-Narrativ, es gab das Libyen-Narrativ usw. usf. Um das mal ganz deutlich zu sagen: Ich kann verstehen, dass sich Politiker Narrative ausdenken, wenn sie irgendetwas erreichen wollen. (…) Dass Journalisten Narrative akzeptieren und bedienen, halte ich für einen unglaublichen Verstoß gegen die journalistische Ethik. Ein Journalist, der sich einem Narrativ fügt, oder ein Journalismus, der sich einem Narrativ fügt, ist ein Widerspruch in sich selbst.“

 

SPON kündigte auf Nachfrage unterdessen an, zukünftig wieder mehr Leserforen zulassen zu wollen:

 

„Zum einen haben wir uns vorgenommen, einfach wieder verstärkt darauf zu achten, das Forum zu aktivieren. Wir wollen das Thema auch technisch unterfüttern und Software testen, die uns beim Screenen und Sortieren der Forumspostings hilft, so dass wir hoffentlich die Menge der geschalteten Foren wieder erhöhen können, weil wir die aus unserer Sicht nicht sendefähigen Posts schneller finden.“

 

Der Ansatz läuft mehr oder weniger auf das maschinelle Ausfiltern unerwünschter Worte hinaus. Google hat ein entsprechendes Programm schon entwickelt, welches nun angeblich „das Gift aus Kommentarspalten saugen“ soll, wie aktuell berichtet wird. Bei der New York Times ist es bereits im Einsatz, auch andere Medien sollen es kostenlos nutzen dürfen. Google testet diese Software namens „Perspective“ zur Zeit. Auf der Produkt-Webseite kann jeder Internetnutzer zur Probe eigene Kommentare eingeben und sich deren „Giftigkeit“ anzeigen lassen. So hofft man, den Algorithmus noch zu verfeinern. Versuchsweise habe ich einige Sätze eingegeben.

 

Die Ergebnisse:

 

• I think this is honest. (Ich denke, das ist ehrlich.) – 2% toxic

 

• I think this is dishonest. (Ich denke, das ist unehrlich.) – 23% toxic

 

• The government does a good job. (Die Regierung arbeitet gut.) – 3% toxic

 

• The government seems corrupt. (Die Regierung erscheint korrupt.) – 38% toxic

 

• The government is more corrupt than ever. (Die Regierung ist korrupter als je zuvor.) – 54% toxic

 

Klar scheint: Negative Äußerungen werden tendenziell als „giftig“ eingeschätzt – ein hochproblematischer Ansatz. Zudem ist die vermeintliche „Künstliche Intelligenz“ der Software bislang nicht wirklich intelligent, wie folgendes Eingabeergebnis zeigt:

 

• The argument of the president seems ridiculous. (Das Argument des Präsidenten wirkt lächerlich.) – 37% toxic

 

• The argument of the president is far from ridiculous. (Das Argument des Präsidenten ist bei weitem nicht lächerlich.) – 48% toxic

 

Zensur, so heißt es immer wieder, gibt es in den Medien nicht, da ja nur ein Staat zensieren könne, was – zumindest in Deutschland oder den USA – nicht der Fall sei. Was aber, wenn viele große Medienhäuser einen gemeinsamen Algorithmus, etwa von Google, zum Ausfiltern von Beiträgen verwenden? Was, wenn sie ganz ähnliche Kriterien benutzen, wenn das Unerwünschte überall gleich definiert wird, die Definition aber über geltendes Recht hinausgeht?

 

Ist das dann bloß deshalb keine Zensur, weil Google ein privates Unternehmen ist und keine Regierungsbehörde? Setzt der Zensurbegriff nicht eigentlich viel tiefer an, nämlich bei der Verfügungsgewalt der Mächtigen – welche nicht zwingend staatliche Akteure sein müssen?

 

Google und die Geopolitik

Erwähnenswert sind in dieser Hinsicht einige personelle Überschneidungen zwischen Google und der US-Regierung. So wurde Google-Chef Eric Schmidt im März 2016 vom US-Verteidigungsminister zum Vorsitzenden eines Pentagon-Beraterkreises ernannt. Und Jared Cohen, ein enger Vertrauter von Schmidt und Chef von Googles Ideenschmiede „Jigsaw“, welche das neue „Leserforen-Entgiftungs“-Programm gerade entwickelt, arbeitete von 2006 bis 2010 im Planungsstab des US-Außenministeriums, erst unter Condoleezza Rice, dann unter Hillary Clinton.

 

In ihren Memoiren lobte Rice ihn persönlich dafür, „Social Media in unseren diplomatischen Werkzeugkasten integriert“ zu haben, was sich Jahre später bei den Demokratiebewegungen im Mittleren Osten „wunderbar ausgezahlt“ habe.

 

Julian Assange berichtete schon vor einiger Zeit in einem lesenswerten Text von einem persönlichen Treffen mit Schmidt und Cohen, sowie deren mehr oder weniger verdeckt aktiver Rolle in der US-Geopolitik.

 

Wenn in einem solchen Milieu, wo Konzern- und Regierungsinteressen auf intransparente Weise verschmelzen, Werkzeuge entwickelt werden, die den freien Informationsfluss durch zentral gesteuerte Algorithmen lenken und einschränken, dann geht es nicht mehr bloß um eine bessere, freundlichere Debattenkultur.

 

Solange außerdem keiner der handelnden Akteure – Google, Facebook, Correctiv, SPON etc. – klar definieren kann, was „Hate Speech“, „Fake News“ und „Verschwörungstheorie“ sein sollen und was nicht – also welche objektiven Kriterien man eigentlich anlegt -, solange dienen diese Begriffe mehr der Verschleierung als der Aufklärung. Solches „Framing“ und „Branding“ sind bekannte Mittel der politischen PR. Mit Journalismus haben sie so wenig zu tun wie mit demokratischer Willensbildung.

 

Quellen:

Spiegel Online: Analyse von Spiegel Online so tickt Deutschlands grösste Nachrichtenseite <https://netzpolitik.org/2016/analyse-von-spiegel-online-so-tickt-deutschlands-groesste-nachrichtenseite/>

YouTube: SpiegelMining – Reverse Engineering von Spiegel-Online (33c3)<https://www.youtube.com/watch?v=-YpwsdRKt8Q>

Bayerischer Rundfunk Alpha Forum Ulrich Teusch: <http://www.br.de/fernsehen/ard-alpha/programmkalender/ausstrahlung-942574.html>

Spiegel.de: Google-Jigsaw will Diskussionskultur im Internet retten <http://www.spiegel.de/netzwelt/web/google-jigsaw-will-diskussionskultur-im-internet-retten-a-1135927.html>

New York Times: The Times is Partnering with Jigsaw to Expand Comment Capabilities <http://www.nytco.com/the-times-is-partnering-with-jigsaw-to-expand-comment-capabilities/>

US Defense Gov: Pentagon to establish defense innovation advisory board <https://www.defense.gov/News/Article/Article/684366/pentagon-to-establish-defense-innovation-advisory-board>

Council on Foreign Relations: Cybersecurity and Iran technology <http://www.cfr.org/experts/cybersecurity-iran-technology-and-foreign-policy/jared-cohen/b16451#bio>

Newsweek: Assange – Google is not what it seems <http://europe.newsweek.com/assange-google-not-what-it-seems-279447>