Hass ist Gift! - Erforschung und Entwicklung automatisierter Erkennungs- und Klassifikationsverfahren von Fake News und Hate Speech
Projektteam: Jonas Pitz, Nadine Probol, Mina Schütz
Projektleitung: Prof. Dr. Melanie Siegel (h_da), Prof. Dr. Dirk Labudde (Fraunhofer SIT)
Beteiligte Institutionen: Zentrale Meldestelle „Hasskommentare“ und Hessen Cyber Competence Center
Dauer: 01/2021 bis 07/2022
Förderer/Auftraggeber: Hessisches Ministerium des Innern und für Sport
ikum
Die sozialen Medien wie Twitter, Facebook und auch die Kommentarspalten der Online-Präsenzen von Zeitungen und Radiosendern werden zunehmend von Menschen dominiert, die diffamieren, beleidigen und bedrohen. Automatisch generierte Nachrichten werden verwendet, um den Eindruck zu erwecken, dass diese extremen Meinungen in der Bevölkerung weit verbreitet sind, aber auch, um politische Gegner mundtot zu machen. Infolgedessen gelingt es vielen Betreibern von Social-Media-Webseiten nicht mehr, Nutzerbeiträge manuell zu moderieren, und es bedeutet für die Moderatoren eine enorme psychische Belastung. Daher besteht ein dringender Bedarf an Methoden zur automatischen Identifizierung verdächtiger Beiträge. Neben der Identifizierung bedarf es einer normativen und moralisch-gesellschaftlichen Bewertung.
Hier setzt das Forschungsvorhaben DeTOx – „Detektion von Toxizität und Aggressionen in Postings und Kommentaren im Netz“ an.
Die Kooperation zwischen der Hochschule Darmstadt und Fraunhofer Institut für Sichere Informationstechnologie SIT erforscht und entwickelt zusammen mit der Meldestelle Hasskommentare des Hessen3C automatisierte Erkennungs- und Klassifikationsverfahren zu „Fake News“ und „Hate Speech“. Mit dem Fokus auf Hasskommentare ist nicht nur die Erkennung und Klassifizierung von Beiträgen als „Hate Speech“ wichtig, sondern auch wie etwas erkannt, gemeldet und bewertet wird. Die Bewertung der Hasskommentare erfolgt dabei zwei Ebenen: Toxizität und Aggression, da diese beiden Faktoren für präventive Maßnahmen von großer Bedeutung sind.
Das Ziel einer neuartigen und nachhaltigen Strategie für eine automatisierte Detektion von Toxizität und Aggressionen in Postings und Kommentaren im Netz kann nur in einem Verbund aus Wissenschaft und Anwendern umgesetzt werden.