Zensur in Echtzeit: Neue App „gegen Hass“ soll unbequeme Netzinhalte direkt unsichtbar machen

0
(Foto: fotolia/ Nomad_Soul)

In welche perversen Dimensionen sollen Meinungskontrolle, Zensur und betreutes Denken im Netz noch getrieben werden? Der jüngste Versuch, missliebige Veröffentlichungen zu unterdrücken, kommt aus England: Forscher der Universität Cambridge arbeiten an einer App, die „Hassbotschaften“ eigenständig detektiert und die Leser vorab davor warnt.

Es ist der Traum aller Zensoren und Gesinnungswächter: Eine Software, die anhand von Algorithmen unerwünschte Inhalte selbständig erkennt, brandmarkt und aus dem Verkehr zieht. Dass vor allem in Deutschland systemkonforme Medienvertreter – insbesondere bei den öffentlich-rechtlichen Formaten – dieser Idee viel abgewinnen können, die sich mit der Politik einen regelrechten Wettkampf in der immer weiteren Verengung des Duldungsrahmen liefern, demonstrierte der „Deutschlandfunk“ in seiner Berichterstattung über die neueste Verheißung: „Hassreden sind die Pest der modernen Kommunikationskultur und mit den angeblich sozialen Medien haben sie einen idealen Nährboden gefunden. Die Plattformbetreiber selbst werden dem grassierenden Problem kaum gerecht.“

Die Lösung soll nun eine Applikation bieten, die eigenständig „Texte analysieren und Hassbotschaften erkennen“ kann. Entweder wird sodann der betreffende Inhalt direkt unzugänglich gemacht oder es wird dem Nutzer mitgeteilt, mit welcher Wahrscheinlichkeit eine Nachricht „Hass enthält“.

Nach Löschungen, Sperren und „Faktenchecks“ jetzt die „Quarantäne“

Diese Real-Time-Brandmarkung und Herausfilterung von Texten weist Parallelen zur immer weiter um sich greifenden Unsitte der „Faktenchecks“ auf, mit denen im Netz verbreitete Inhalte ungefragt und ohne Revisions- oder Einspruchsmöglichkeit ihrer Verfasser versehen werden: Zur Ermittlung und Warnung vor „Fake-News“ schwingen sich – von den Netzwerkbetreibern hierzu autorisierte – dubiose Organisationen mit dem angemaßten Nimbus einer scheinbar unparteiischen Objektivität zu pseudowissenschaftlichen Kommentatoren auf, um behauptete Sachverhalte auf ihre „Faktentreue“ zu überprüfen. Regelmäßig werden dabei allerdings einseitige Bewertungsmaßstäbe angelegt oder es werden ausschließlich Quellen herangezogen, die zur Untermauerung der jeweils angestrebten Beurteilung („falsch“, „teilweise falsch“) geeignet sind. Im Ergebnis ist es so für die Leser gar nicht mehr unvoreingenommen möglich, die Inhalte zu rezipieren.

Der inzwischen rabiat verwaschene, bewusst immer unschärfere Gebrauch etwa des „Hassbegriffs“ oder des Verdikts „Fake-News“ dient dabei nur der Korridorsetzung, in der die Bekämpfung vermeintlich schadhafter Erscheinungsformen der Redefreiheit mit gesetzlicher und sozialer Rückendeckung ablaufen soll. Dass mündige Bürger selbst imstande wären, Inhalte selbst zu gewichten, eigene Schlüsse zu ziehen oder die journalistische Bewertung nach persönlichen Maßstäben vornehmen (exakt das macht geistige Unabhängigkeit und Meinungsfreiheit aus!): Auf diese Idee kommt die Politik, die diese fatale Entwicklung in Gang gesetzt hat, gar nicht mehr.

Die Bürger werden zu schützenswerten, unmündigen Trotteln gemacht, die Kleinkindern gleich vor negativen Einflüssen beschützt werden müssen. Wir verzeichnen einen Rückschritt in voraufklärerische, undemokratische Zeiten, als die Obrigkeit jede Kontamination des Volkes mit zersetzendem, unmoralischem, aufrührerischem oder angeblich zu Gewalt anstiftendem Gedankengut unter Strafe stellte. Statt „sapere aude“, „wage zu wissen“, bewegt sich der Zeitgeist zurück in Richtung „timere aude“: „wage dich, dich wieder zu fürchten“. Dahinter steht ein paternalistisch-antifreiheitliches Untertanenbild der Politik: Wir wissen, was gut für dich ist! Wir bewahren dich vor verstörenden oder „falschen“ Inhalten!

Intransparente Methoden und Wilkür

Der KI-gesteuerte Shadowban reiht sich nahtlos ein in die Sperr- und Löschorgien sozialen Netzprovider (zu denen das Netzwerkdurchsuchungsgesetz sie in Deutschland sogar aktiv verpflichtet). Auch hier wird durch für die Betroffenen völlig intransparente Methoden – entweder völlig willkürlich oder anhand von Trigger-Words – das Kind regelmäßig mit dem Bad ausgekippt: Neben den wenigen echten Fällen von strafbarer Hetze, von unzweideutigem Hass (für die allerdings bereits das reguläre Strafrecht ausreicht) werden absolut vertretbare, rechtlich und ethisch einwandfreie Beiträge weggefiltert und ihre Verfasser zum Verstummen gebracht. Die Fehlerquote ist riesig. Und egal wie ausgeklügelt die nun in Cambridge entwickelte „Quarantäne für Hasskommentare im Internet“, als die eine in dem Projekt involvierte Linguistin die Wirkungsweise anpreist, am Ende sein mag: Es ist vorprogrammiert, dass sie reihenweise Fehler und damit grundrechtswidrige Zensur verursachen wird.

Die perfide Crux all solcher Maßnahmen ist zudem: Wer maßt sich hier eigentlich an, mit welcher Autorität über wahr oder falsch, über Hass oder Hetze zu urteilen? Denn keine objektiven, juristisch geschulten, unvoreingenommenen, wohlwollend an Meinungsvielfalt orientierten Instanzen bestimmt darüber, was im Netz letztlich zu lesen sein wird oder wo die Reichweitenbegrenzung greifen soll. Sondern delegiert werden die weitreichenden Eingriffsrechte in das Grundrecht auf freie Meinungsäußerung an fragwürdige NGO’s, Unternehmen, Interessengruppen und Dienstleister, die ihre eigene Weltanschauung, ihre eigenen Zwecke zum alleinigen Maßstab machen. Sie sind es, die den Hassbegriff dann tendenziell auf alles ausdehnen, was ihnen missfällt. Und welche Software, Apps oder Filter sie in den Dienst dieser Willkür stellen, ist letztlich nachrangig.

Für Laien, die mit den sozialen Medien nichts oder sehr wenig am Hut haben (darunter vermutlich auch viele Hörer des „Deutschlandsfunks“) klingen all diese pfiffig-kreativen Ideen durchaus sinnvoll: Hassreden werden weggefiltert oder unzugänglich gemacht, Personen, die Hassreden verbreiten, werden gesperrt.

Ziel ist die Mundttotmachung

Doch das ist die Theorie, die mit der Praxis nichts zu tun hat. Denn die vermeintlich so intelligenten Kontrollinstrumente funktionieren nicht – schlimmer noch: Von vornherein war nie beabsichtigt, sie lediglich auf die echten Fälle justiziabler, menschenverachtender Ausfälle anzuwenden. Das Ziel war und ist die willkürliche Mundtotmachung, die „Entschärfung“ unbequemer, für toxisch erklärter Inhalte in der Fläche. Die Entwickler der geplanten App bekennen ganz offen: „Wenn Absender davon ausgehen müssten, dass ihre Nachricht vielleicht gar nicht gelesen wird, könnte die Motivation zum Schreiben der Nachricht sinken.“

Der deskriptive Gebrauch von Worten wie „Hass“ und „Hetze“ suggeriert, hier handele es sich um objektiv gegebene Tatbestände. Tatsächlich unterfällt diesen Deliktbezeichnungen alles, was nicht ins gewünschte Meinungsspektrum passt. So wird ein Handlungsbedarf erzeugt, der nach immer neuen Maßnahmen ruft. Und jene, die in den sozialen Medien selbst nicht unterwegs sind und mit deren dünkelhaften Vorstellungen sich das Zerrbild vom überall hervortretenden Netzpöbel voller Hass und Geifer vollauf deckt, unterstützen diese Maßnahmen. Sie wissen schlicht nicht, dass diese zu 90 Prozent auf völlig legitime Inhalte zielen und zu höchstens zehn Prozent tatsächlich fragwürdige oder gar justitiable Inhalte.

Naive Menschen dachten auch im Dritten Reich, in Dachau oder Buchenwald landen nur wirkliche Verbrecher – und wer will schon etwas gegen Kriminalitätsbekämpfung einwenden? In Mao-China, der Sowjetunion – oder heute noch in den nordkoreanischen Umerziehungsanstalten – saßen nach offizieller Lesart keine Unschuldigen, sondern stets Täter ein, die es verdient haben. Für wie legitim jemand Repressionen hält immer vom Grad seiner Voreingenommenheit und seines Vertrauens in die Redlichkeit, die legalistische Rechtstreue der Kontrollinstanzen ab.

Und was in diesen Regimes „Volksschädlinge“ oder „Volksfeinde“ waren, sind heute die „“Hetzer“, „Fake-News-Verbreiter“ und „Hassredner“. Es sind Gummivokabeln, mit denen je nach Gusto jeder belegt werden kann, der die zulässigen Korridore verletzt.

Keine Zensur: Folgt uns auf Telegram