Ein Zahlencode gegen Radikalisierung?

9990024683_955f8f043b_h
Copyright: flickr.com/r2hox CC BY 2.0

Videoplattformen ohne Enthauptungsvideos; Soziale Medien, in denen nicht mehr zum Mord an den „Ungläubigen“ aufgerufen wird. Diese Vision verfolgt die private, non-profit Organisation „Counter Extremism Project (CEP)“, die vor zwei Jahren von ranghohen ehemaligen US-Politikern gegründet wurde. Mit ihrem Algorithmus „eGlyph“ will CEP nun islamistischer Propaganda den Kampf ansagen.

Der von einem amerikanischen Professor der Elite-Universität Dartmouth entwickelte Algorithmus eGlyph soll automatisch die sogenannten „schlimmsten der schlimmsten“ Bilder, Audiodateien und Videos aus dem Internet entfernen können. Die Technologie muss man sich wie einen digitalen Fingerabdruck vorstellen: Jede Datei hat eine einzigartige Signatur inne, ähnlich der menschlichen DNA. Hat man einmal diese digitale DNA eines Enthauptungsvideos extrahiert, kann man alle zukünftig hochgeladenen Videos mit dieser DNA abgleichen. Sollte das Video an anderer Stelle wieder auftauchen, so könnte es automatisch gelöscht werden. Mit einem ähnlichen Algorithmus entfernt die Internetindustrie bereits erfolgreich kinderpornografische Bilder aus dem Netz.

Mit der Entwicklung eines automatischen Tools zum Entfernen gewalttätiger IS-Propaganda treffen die Entwickler zumindest den Nerv des Problems: die schier unendliche Anzahl an Videos, Bildern und Audiodateien im Netz. Oft dauert es Stunden, bis ein Video oder ein Foto von Usern oder den internen „Wachhunden“ der Sozialen Medien entdeckt wird. Selbst wenn der Post gelöscht wird, hält dies die „Internet-Hydra“ nicht auf: für jedes heruntergenommene Video tauchen an anderer Stelle Kopien auf, die sich wiederum weiterverbreiten. eGlyph soll dieser Dynamik ein Ende setzen und Kopien direkt löschen.

Wenig Begeisterung bei den Sozialen Medien

Die Sozialen Medien sind bisher allerdings noch nicht auf den eGlyph-Begeisterungszug aufgesprungen. Dennoch geht der Erfinder des Algorithmus, Dr. Hany Farid, davon aus, dass sie mit der Zeit – aus öffentlichem Druck oder gesetzlicher Verpflichtung – eine technologische Lösung wie eGlyph anwenden werden.

Stattdessen experimentieren Internetunternehmen zurzeit mit eigenen Algorithmen sowie Technologien der automatischen Gegenrede. So nahmen Facebook, Twitter und Google im letzten Jahr an einem Onlineexperiment teil, bei denen gefährdeten oder radikalisierten Usern aufgrund ihres Surf- und Suchverhaltens – ähnlich der personalisierten Werbung – Videos angezeigt werden, die zum kritischen Denken animieren sollen und denen eine moderate Interpretation des Islams zugrunde liegt. Die Sozialen Medien tun dies nicht aus Wohlwollen. Vielmehr wollen sie ihr Geschäftsmodell schützen, bei dem es gewinnfördernd ist, mehr Content zu produzieren anstatt Inhalte herunterzunehmen.

Dialog fördern durch Gegenrede

Die Ergebnisse der Studie zur Gegenrede sind vielversprechend und zeigen, dass solche Videos den Dialog anregen. Ein Problem bei der Strategie der Gegenrede ist jedoch ihre kulturelle Einbettung, die je nach Herkunft des Users unterschiedlich ausfallen müsste. Allgemein gilt bei Maßnahmen gegen Radikalisierung, egal ob on- oder offline, dass die Erfolgsmessung schwierig ist: wie soll man messen, dass sich jemand aufgrund dieser oder jener Gegenmaßnahme nicht radikalisiert hat?

Dialog zu fördern und durch Argumente Zweifel zu sähen, erscheint dennoch als zu bevorzugender Weg anstatt das automatische Löschen von Content, bei dem man schnell auf Grenzfälle und damit auf Fragen der Meinungs- und Religionsfreiheit stößt. Gleichzeitig kann ein solcher Algorithmus (gewollt oder ungewollt) zum Zensurmittel werden und legitime Beiträge löschen, etwa von Dissidenten, die auf einem Blog über Gewalttaten informieren, oder Nachrichtenmedien, die das Material für die Berichterstattung nutzen. Dass es gelingt, all diese User auf eine Weiße Liste zu setzen, ist in der komplexen Welt des Internets fraglich.

Kein Knopf gegen unliebsame Inhalte

Welches Potenzial hat also der Algorithmus eGlyph? Er könnte strafrechtlich relevantes Material aus dem Internet löschen. Er kann zum Schutz der Menschenwürde der Opfer und ihrer Familien beitragen. Was eGlyph aber nicht kann, ist die Radikalisierung junger Menschen zu stoppen. Der Algorithmus mag ein Werkzeug im Baukasten sein. Sollte er zur Anwendung kommen, bedarf dies im Vorhinein einer breiten öffentlichen Debatte, um die Probleme, die die Anwendung mit sich bringt, so weit wie möglich einzugrenzen.

Generell gilt: die Vorstellung mag reizvoll sein, einfach einen Knopf zu drücken oder einen Zahlencode zu erfinden, der Inhalte löscht, die unserer freien, liberalen Weltanschauung widersprechen. In einem freien Internet kann es einen solchen Knopf aber niemals geben. Schon allein, weil es ein Grundpfeiler der liberalen Weltanschauung ist, andere Meinungen – solange sie im Einklang mit dem Gesetz stehen – zu respektieren.

 

caroline-haury-foto
Caroline Haury
European Affairs Manager