Neue Technologie soll extremistische Videos automatisch erkennen und löschen

Facebook und YouTube: automatische Identifizierung extremistischer Videos
Kommentare

Im Kampf gegen den globalen Terrorismus im Netz scheinen Facebook und YouTube nun auf eine automatische Identifizierung extremistischer Inhalte zu setzen. Bisher wurde illegaler Content in der Regel durch die Nutzer angezeigt und von menschlichem Personal überprüft. Die betroffenen Unternehmen haben sich bisher nicht zu der neuen Technologie geäußert.

Weltweit führende Tech-Unternehmen spielen eine immer wichtigere Rolle bei der Bekämpfung des globalen Terrorismus im Netz. Allerdings gestaltet sich die Kooperation zwischen offiziellen Stellen und privaten Konzernen oftmals als schwierig. Insbesondere EU-Mitgliedstaaten hatten nach den jüngsten Terroranschlägen in Brüssel und Paris Social-Media-Unternehmen verstärkt dazu gedrängt, stärker gegen illegale Inhalte vorzugehen.

Aus diesem Grund haben vor Kurzem Facebook, Google, Microsoft und Twitter einen mit der EU-Kommission ausgearbeiteten Verhaltenskodex gegen Onlinehetze zugestimmt. Dem freiwilligen Abkommen zufolge sollen illegale Online-Hasstiraden innerhalb von 24 Stunden nach Eingang einer offiziellen Benachrichtigung gelöscht werden. Die Unternehmen wollen mit der Vereinbarung sicherstellen, dass ihre Online-Plattformen nicht als öffentliches Sprachrohr für Hate Speeches missbraucht werden.

Automatische Identifizierung extremistischer Videos

Nach Informationen, die der Nachrichtenagentur Reuters vorliegen, setzen führende Konzerne in der Web-Video-Branche nun verstärkt auf den Einsatz automatisierter Tools, um extremistische Inhalte von ihren Plattformen zu entfernen. Unter anderem sollen YouTube und Facebook entsprechende Systeme entwickeln, um die Verbreitung illegalen Contents, wie etwa Propagandavideos der Terrororganisation Islamischer Staat, einzudämmen. Bisher haben die Konzerne die Entwicklung nicht bestätigt oder Angaben über die eingesetzten Verfahren gemacht.

Wie zwei Quellen jedoch berichten, soll die vermeintlich zum Einsatz kommende Technologie zuvor zur Identifizierung rechtlich geschützter Inhalte eingesetzt worden sein. Gesucht werde nach sogenannten „Hashes“, die wie digitale Fingerabdrücke funktionieren, und die User und Unternehmen mit spezifischen Videos verbinden.

Inhalte mit demselben Fingerabdruck, wie zum Beispiel Reuploads von Dateien, die bereits als illegal eingestuft wurden, können so per Datenbankabgleich effizient verhindert werden. Allerdings könne Material, das noch nicht gesichtet wurde, nicht auf diese Weise automatisch entfernt werden. Genaue Angaben darüber, wie stark menschliche Mitarbeiter nach der maschinellen Filterung in den Überprüfungsprozess eingebunden sind, machten die beiden Quellen nicht.

Kein öffentlicher Diskurs

Die meisten Anbieter verlassen sich bei der Kennzeichnung illegaler Inhalte auf das Feedback der Nutzer. Die Anzeigen werden in den häufigsten Fällen von menschlichem Personal überprüft und bei vorliegendem Verstoß beseitigt.

Nach Aussagen der Quellen würden die Unternehmen ihre neue Technologie nicht öffentlich machen, da sie befürchten, dass die Urheber extremistischer Inhalte ihre Systeme manipulieren oder repressive Regierungen ihre Technologien dazu nutzen könnten, oppositionelle Stimmen zu zensieren.

Das dürfte insbesondere bei zivilrechtlichen Gruppen für Unmut sorgen. Bereits bei der Unterzeichnung des EU-Verhaltenskodex bemängelten sie, dass die Richtlinien der Unternehmen bei der Bewertung und Meldung illegaler Inhalte über europäische Gesetze gestellt wurden.

Aufmacherbild: Terrorist Leader On Tv Screen Streaming Television Terrorism Vector Illustration (modifiziert) via Shutterstock / Urheberrecht: ProStockStudio

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -