Facebook kündigt "Hateful Memes Challenge" an, um offensive Memes zu stoppen und Reden zu hassen

Facebook hat eine neue Initiative angekündigt, um zu verhindern, dass „hasserfüllte“ Memes im Internet auftauchen. Dieser neue Algorithmus mit dem Namen „Hateful Memes Challenge“ steht Journalisten und Forschern zur Überprüfung zur Verfügung, was wiederum dazu führen kann, dass „gefährliche Memes“ beim Surfen im Internet „positiv“ sind, um die Sicherheit der Menschen zu gewährleisten.

Wenn Sie eine kurze Zusammenfassung des neu angekündigten Programms von Facebook zur Eindämmung hasserfüllter Memes wünschen, können Sie dies zunächst überprüfen Das Video von Memology 101 genau hier:

Falls Sie das Video laut nicht gesehen haben facebook.comDouwe Kiela (Wissenschaftler), Hamed Firooz (Wissenschaftler für angewandte Forschung) und Aravind Mohan (Datenwissenschaftler) sagen, dass schädliche Inhalte „die gesamte Tech-Industrie und die Gesellschaft insgesamt betreffen“.

Darüber hinaus ist hier einer der vielen Punkte hinter The Hateful Memes Challenge und was damit erreicht werden soll:

„Wir haben einen Datensatz erstellt und teilen ihn jetzt, um KI-Forschern bei der Entwicklung neuer Systeme zur Identifizierung multimodaler Hassreden zu helfen. Dieser Inhalt kombiniert verschiedene Modalitäten wie Text und Bilder, was das Verständnis für Maschinen erschwert.

Der Hateful Memes-Datensatz enthält mehr als 10,000 neue multimodale Beispiele, die von Facebook AI erstellt wurden. Wir haben Bilder von Getty Images lizenziert, damit Forscher den Datensatz zur Unterstützung ihrer Arbeit verwenden können. Wir veröffentlichen auch den Code für Modelle mit Basistraining.

Wir starten auch die Hateful Memes Challenge, einen einzigartigen Online-Wettbewerb, der von DrivenData mit einem Gesamtpreispool von 100,000 US-Dollar veranstaltet wird. Die Herausforderung wurde im Rahmen des Wettbewerbs für NeurIPS 2020 angenommen. “

Facebook AI, zusammen mit der Hateful Memes Challenge, wird von den drei Wissenschaftlern und dem Facebook-Team als die derzeit beste Lösung bezeichnet. Das Team sucht jedoch auch nach Möglichkeiten, um potenziellen Missbrauch zu verhindern. Aus diesem Grund wird der Zugriff eingeschränkt sein.

Dies bedeutet, dass die Teilnehmer (Journalisten und Forscher) strengen Nutzungsbedingungen für die Verwendung, Speicherung und den Umgang mit diesen Daten zustimmen müssen.

Darüber hinaus erfahren wir auch, dass das Team versucht, dem KI-Algorithmus zu helfen, hasserfüllte Beispiele von potenziellen Fehlalarmen zu unterscheiden. Um sicherzustellen, dass die Klassifizierungsentscheidungen umsetzbar sind, hat das Team die folgenden Beispiele speziell zur Definition von Hassreden erstellt:

„Ein direkter oder indirekter Angriff auf Menschen aufgrund von Merkmalen wie ethnischer Zugehörigkeit, Rasse, Nationalität, Einwanderungsstatus, Religion, Kaste, Geschlecht, Geschlechtsidentität, sexueller Orientierung und Behinderung oder Krankheit. Wir definieren Angriffe als gewalttätige oder entmenschlichende Sprache (Vergleich von Menschen mit nichtmenschlichen Dingen, z. B. Tieren), Minderwertigkeitserklärungen und Forderungen nach Ausgrenzung oder Segregation. Das Verspotten von Hassverbrechen wird auch als Hassrede angesehen. “

Schließlich soll das Team Fortschritte bei der Verbesserung der KI-Systeme erzielt haben, um „Hassreden“ und andere „schädliche Inhalte“ auf Facebook zu erkennen. Das Team möchte jedoch, dass sich die Hateful Memes Challenge über Facebook hinaus auf andere Plattformen ausbreitet, um „die Sicherheit der Menschen zu gewährleisten“.

Folgen Sie diesem Link nicht oder Sie werden von der Seite verboten!
~