Google hat sich zu vier zusätzlichen Schritten verpflichtet, um Terror-Propaganda über seine Online-Dienste wie Youtube einzudämmen. Dabei sollen künstliche Intelligenz (KI) ebenso zum Einsatz kommen wie eine größere Zahl unabhängiger Experten. Das Vier-Punkte-Programm kündigte Googles Chefjustiziar Kent Walker in einem Blogeintrag an, der zuerst als Gastkommentar in der Financial Times veröffentlicht wurde.
„Wir und andere haben seit Jahren an der Identifizierung von Inhalten gearbeitet, die gegen unsere Richtlinien verstoßen“, schreibt Walker. „Die unbequeme Wahrheit ist aber, dass wir als Branche zugeben müssen, dass mehr getan werden muss. Jetzt.“
Die erste Maßnahme soll darin bestehen, Technologie zur Identifizierung von extremistischen und mit Terrorismus zusammenhängenden Videos zu nutzen. Die Herausforderung sei, dass ein Video über eine terroristische Attacke ebenso ein informativer Bericht der BBC sein könnte wie eine Gewaltverherrlichung, wenn es von einem anderen Nutzer in einem anderen Kontext hochgeladen wird.
Schon bisher wurden laut Walker Video-Analyse-Modelle eingesetzt, um über die Hälfte der terrorbezogenen Inhalte zu finden und einzuschätzen, die in den letzten sechs Monaten entfernt wurden. Jetzt will der Internetkonzern mehr Entwickler-Ressourcen der Anwendung fortgeschrittenster Maschinenlernen-Forschung auf das Training neuer „Inhalte-Kategorisierer“ widmen, um „uns zu helfen, extremistische und terrorbezogene Inhalte schneller zu identifizieren und zu entfernen“.
Aber auch Google räumt ein, dass Technologie allein kein Allheilmittel sein kann. Daher soll die Anzahl unabhängiger Experten im Trusted-Flagger-Programm von Youtube erheblich ausgeweitet werden. Zu den bisher teilnehmenden 63 Organisationen sollen die Experten von 50 weiteren Nichtregierungsorganisationen hinzukommen. „Maschinen können dabei helfen, problematische Videos zu identifizieren, aber menschliche Experten spielen noch immer eine Rolle in nuancierten Entscheidungen über die Linie zwischen gewaltsamer Propaganda und religiösen oder berichtenswerten Inhalten“, heißt es weiter.
Drittens will Google eine entschiedenere Haltung gegenüber Videos einnehmen, die nicht eindeutig seine Richtlinien verletzen. Das könnten etwa Videos mit hetzenden oder rassistischen Inhalten sein. Ihnen soll künftig eine Warnung vorgeschaltet sein, sie sollen weder kommentiert oder empfohlen werden können – und es soll nicht möglich sein, mit ihnen Geld zu verdienen. Zuletzt will Googles Videoplattform Youtube offensiv gegen versuchte Radikalisierung angehen. Anfällige Nutzer sollen mit aufklärenden Videos konfrontiert werden, um ihre mögliche IS-Rekrutierung zu verhindern.
Google will außerdem zusammen mit Facebook, Microsoft, Twitter und auch kleineren Firmen ein internationales Forum aufbauen, um gemeinsame Anstrengungen gegen online verbreiteten Terrorismus zu beschleunigen. „Zusammen können wir nachhaltige Lösungen schaffen, die den Bedrohungen unserer Gesellschaft und unserer Freiheit entgegenwirken“, schließt Chefjustiziar Walker. „Es ist eine umfassende und komplexe Herausforderung. Wir sind entschlossen, unseren Teil beizutragen.“
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.
Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…