zur Navigation springen

Google und Facebook : Kampf gegen Fake News: Der Nutzer als Software-Lehrer

vom
Aus der Redaktion des Flensburger Tageblatts

Google setzt beim Kampf gegen Fake News auf menschliche Hilfe. Den eigentlichen Job soll aber der Algorithmus erledigen.

shz.de von
erstellt am 27.Apr.2017 | 10:59 Uhr

Mountain View/Menlo Park | Mord im Live-Stream auf Facebook, Fake-News-Seiten weit oben in den Google-Suchergebnissen – die großen Internetkonzerne werden immer wieder dafür kritisiert, solche Inhalte nicht schnell genug zu löschen. Der Ruf nach Software-Lösungen wird stets größer, die Konzerne arbeiten daran, die Trefferquote solcher Systeme beim Erkennen fragwürdiger Inhalte zu erhöhen. Denn sind es häufig noch die Nutzer, die die Plattformen auf Gewaltinhalte aufmerksam machen. Vielfach wird der Löschvorgang erst danach in Gang gebracht.

Hasskommentare im Internet und Fake News, sind ein Dauerthema - und ein großes Problem. Plattform-Anbieter wie Facebook  oder Google werden immer wieder für ihren laxen und intransparenten Umgang mit solchen Inhalten kritisiert.

Bei Videos im Zusammenhang mit dem Mord an einem Rentner in Cleveland vor eineinhalb Wochen griff dieser Mechanismus erst gut zwei Stunden, nachdem die Videos online gingen. Beim aktuellsten Fall, bei dem ein Mann in Thailand Anfang dieser Woche live streamte, wie er seine elf Monate alte Tochter erhängt, waren die schrecklichen Bilder fast 24 Stunden bei Facebook online. Hier meldeten Nutzer den Fall bei der Polizei.

Die Fälle machen deutlich: Facebook hat ein Problem. Eine schnelle Lösung ist nicht in Sicht. „Wir wissen, dass wir besser werden müssen“, schrieb Facebook-Manager Justin Osofsky nach dem Mord in Cleveland in einem Blogeintrag. Auch wenn die Konzerne an selbstlernender Software arbeiten, noch ist ein flächendeckender und zuverlässiger Einsatz noch nicht in Sicht.

Internet-Riesen setzen auf die Nutzergemeinde

Facebook beschäftige „Tausende“ Menschen rund um die Welt, die Millionen Facebook-Beiträge pro Woche prüften, betonte Osofsky auf der konzerneigenen Entwicklerkonferenz F8 in der vergangenen Woche. Nun solle auch das Meldesystem auf den Prüfstand gestellt werden. Man setzt also weiter auf die aufmerksame Nutzergemeinde statt Software.

Filter-Software ist bereits im Einsatz

Bei jeder Gelegenheit heben Facebook oder Google  ihre Erfolge bei selbstlernenden Computern hervor. Doch für die Online-Firmen geht es hier um das Grundprinzip, nach dem sie funktionieren – und das sie so rasant wachsen ließ: Sie stellen nur die Plattform, die Inhalte kommen von den Nutzern und müssen nicht vorab geprüft werden. Ausnahmen gibt es nur in einzelnen, besonders drastischen Fällen, zum Beispiel bei Kinderpornografie.

Ansonsten kommt Bilderkennungs-Technologie erst zum Einsatz, wenn Fotos oder Videos bereits von den Nutzern gemeldet wurden. Facebook erstellt seit kurzem auch bei sogenannten Rachepornos, also ohne Zustimmung geteilten intimen Bildern, eine Art digitalen Fingerabdruck, damit sie nicht weiterverbreitet werden können. Auch bei Gewaltvideos werde mit Hilfe lernender Maschinen das Teilen in voller Länge verhindert, betonte Facebook-Manager Justin Osofsky jetzt. Nur Fragmente könnten in Berichte oder kritische Beiträge eingefügt werden.

 

Google kündigte an, beim Kampf gegen Fake News künftig auf menschliche Hilfe zu setzen – und zwar auch bei der Verbesserung von computergesteuerten Prüfsystemen. Der Internet-Konzern stellte am Dienstag das „Project Owl“ (Projekt Eule) vor, mit dem „minderwertige Inhalte“ aus seinen Suchergebnissen und anderen Diensten weitgehend verbannt werden soll. Eine Kampfansage in Richtung gefälschter Nachrichten, Hassbotschaften und unbestätigte Verschwörungstheorien. Menschliche Testpersonen sollen den Suchalgorithmus auf eine bessere Erkennung minderwertiger Inhalte trainieren, sagte Google-Ingenieur Pandu Nayak.

Für Google seien seit geraumer Zeit weltweit zehntausende Internet-Anwender aktiv, um Änderungen der Suchformel in einem Blindtest zu bewerten. Dabei bekommen die Tester die Suchergebnisse vor und nach der Algorithmus-Änderung zu sehen und müssen beurteilen, welches besser ist. In Deutschland seien rund 600 Testpersonen im Einsatz. „Dieses Feedback hat keinen unmittelbaren Einfluss auf das Ranking einzelner Seiten, hilft uns jedoch dabei, Daten zur Qualität unserer Suchergebnisse zu sammeln und Bereiche mit Verbesserungsbedarf zu erkennen“, schrieb Ben Gomes, VP of Engineering, Google Search, in einem Blogeintrag. „Es gibt ähnlich wie bei Spam-Mails Leute, die unser System austricksen wollen“, sagte Nayak.

„Project Owl“ sieht auch Änderungen beim Ranking vor: Google habe Suchfaktoren mit Signalwirkung angepasst, damit verlässlichere Seiten angezeigt und Inhalte von minderer Qualität herabgestuft werden können.

Google-Suchvorschläge sollen bereinigt werden

Die Initiative umfasst weiterhin die Autocomplete-Funktion bei der Google-Suche. Mit der automatischen Vervollständigung von Suchbegriffen will Google den Nutzern Tipparbeit ersparen. Zum Beispiel bei der Eingabe von „women are“ (Frauen sind) habe das System aber zuletzt das Wort „evil“ (böse) vorgeschlagen, weil die Funktion bislang ohne Wertung die Begriffe anzeigt habe, die im Netz häufig aufgerufen würden.

Google wird künftig bei den Vorschlägen auf Begriffe verzichten, die als sexuelle Beschimpfung, Hassrede oder als Bedrohung bestimmter Gruppen empfunden werden können. Außerdem bekommen die Google-Anwender die Möglichkeit, Autocomplete-Vorschläge zu bewerten und anstößige Worte zu melden. Diese Funktion wird aber zunächst nur auf Englisch verfügbar sein.

Bei der Suche nach „Angela Merkel ist“ schlägt Google auf Deutsch aktuell die Worte „tot“, „wahnsinnig“, „Polin“, „schwanger“ und „verheiratet“ vor. Richtig Ärger bekam Google wegen seiner Vorschläge auch schon – zum Beispiel im Fall von Bettina Wulff, der Ex-und-dann-wieder-Partnerin und Ehefrau des ehemaligen Bundespräsidenten Christian Wulff.

Im Jahr 2015 entfernte der Online-Gigant, nachdem man sich mit der 42-Jährigen außergerichtlich geeinigt hatte, insgesamt 43 Vorschläge, darunter die Vervollständigungen „Rotlichtvergangenheit“, „Escort“ oder „Prostituierte“, aus der automatischen Vervollständigung. Der Bundesgerichtshof hatte 2013 entschieden, dass Google Vorschläge entfernen muss, wenn damit Persönlichkeitsrechte verletzt werden.

zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Kommentare

Leserkommentare anzeigen