Google hat sich zu vier zusätzlichen Schritten verpflichtet, um Terror-Propaganda über seine Online-Dienste wie Youtube einzudämmen. Dabei sollen künstliche Intelligenz (KI) ebenso zum Einsatz kommen wie eine größere Zahl unabhängiger Experten. Das Vier-Punkte-Programm kündigte Googles Chefjustiziar Kent Walker in einem Blogeintrag an, der zuerst als Gastkommentar in der Financial Times veröffentlicht wurde.
„Wir und andere haben seit Jahren an der Identifizierung von Inhalten gearbeitet, die gegen unsere Richtlinien verstoßen“, schreibt Walker. „Die unbequeme Wahrheit ist aber, dass wir als Branche zugeben müssen, dass mehr getan werden muss. Jetzt.“
Die erste Maßnahme soll darin bestehen, Technologie zur Identifizierung von extremistischen und mit Terrorismus zusammenhängenden Videos zu nutzen. Die Herausforderung sei, dass ein Video über eine terroristische Attacke ebenso ein informativer Bericht der BBC sein könnte wie eine Gewaltverherrlichung, wenn es von einem anderen Nutzer in einem anderen Kontext hochgeladen wird.
Schon bisher wurden laut Walker Video-Analyse-Modelle eingesetzt, um über die Hälfte der terrorbezogenen Inhalte zu finden und einzuschätzen, die in den letzten sechs Monaten entfernt wurden. Jetzt will der Internetkonzern mehr Entwickler-Ressourcen der Anwendung fortgeschrittenster Maschinenlernen-Forschung auf das Training neuer „Inhalte-Kategorisierer“ widmen, um „uns zu helfen, extremistische und terrorbezogene Inhalte schneller zu identifizieren und zu entfernen“.
Aber auch Google räumt ein, dass Technologie allein kein Allheilmittel sein kann. Daher soll die Anzahl unabhängiger Experten im Trusted-Flagger-Programm von Youtube erheblich ausgeweitet werden. Zu den bisher teilnehmenden 63 Organisationen sollen die Experten von 50 weiteren Nichtregierungsorganisationen hinzukommen. „Maschinen können dabei helfen, problematische Videos zu identifizieren, aber menschliche Experten spielen noch immer eine Rolle in nuancierten Entscheidungen über die Linie zwischen gewaltsamer Propaganda und religiösen oder berichtenswerten Inhalten“, heißt es weiter.
Drittens will Google eine entschiedenere Haltung gegenüber Videos einnehmen, die nicht eindeutig seine Richtlinien verletzen. Das könnten etwa Videos mit hetzenden oder rassistischen Inhalten sein. Ihnen soll künftig eine Warnung vorgeschaltet sein, sie sollen weder kommentiert oder empfohlen werden können – und es soll nicht möglich sein, mit ihnen Geld zu verdienen. Zuletzt will Googles Videoplattform Youtube offensiv gegen versuchte Radikalisierung angehen. Anfällige Nutzer sollen mit aufklärenden Videos konfrontiert werden, um ihre mögliche IS-Rekrutierung zu verhindern.
Google will außerdem zusammen mit Facebook, Microsoft, Twitter und auch kleineren Firmen ein internationales Forum aufbauen, um gemeinsame Anstrengungen gegen online verbreiteten Terrorismus zu beschleunigen. „Zusammen können wir nachhaltige Lösungen schaffen, die den Bedrohungen unserer Gesellschaft und unserer Freiheit entgegenwirken“, schließt Chefjustiziar Walker. „Es ist eine umfassende und komplexe Herausforderung. Wir sind entschlossen, unseren Teil beizutragen.“
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…