Forschungsprojekt "NOHATE" Wie der Bund Hasskommentaren im Internet entgegenwirken will

Diskussionen werden online immer häufiger  über Beleidigungen, statt über Argumente ausgetragen. Um diesen sogenannten Hasskommentaren entgegenzuwirken, fördert der Bund das Forschungsprojekt "NOHATE". Foto: dpa/Fabian SommerDiskussionen werden online immer häufiger über Beleidigungen, statt über Argumente ausgetragen. Um diesen sogenannten Hasskommentaren entgegenzuwirken, fördert der Bund das Forschungsprojekt "NOHATE". Foto: dpa/Fabian Sommer

Berlin. In den letzten Jahren haben Hasskommentare im Internet stark zugenommen. Oft wird am eigentlichen Thema eines Beitrags vorbeigeredet - statt Argumenten dominieren Beleidigungen die Diskussion. Das vom Bund geförderte Forschungsprojekt "NOHATE" befasst sich damit und will mit einer Software Seitenbetreibern Hilfe leisten.

"Man muss eingreifen", ist sich Marc Trömel sicher. Andernfalls, wenn Hasskommentare im Internet immer weiter Überhand nehmen, befürchte er ein immer stärkeres "Auseinanderdriften der Gesellschaft". Trömel ist Geschäftsführer bei VICO Research & Consulting, einer Firma, die unter anderem soziale Netzwerke beobachtet und analysiert und von Firmen beratend hinzugezogen werden kann. Gemeinsam mit der Freien Universität Berlin und der Berliner Beuth Hochschule für Technik ist Trömels Firma Teil des Bund-Forschungsprojekts "NOHATE - Bewältigung von Krisen öffentlicher Kommunikation im Themenfeld Flüchtlinge, Migration und Ausländer". Das Projekt untersucht Hasskommentare im Internet und entwickelt eine Software, mit der Seitenbetreiber und ihre Moderatoren eskalierende Diskussionen schneller erkennen und Handlungsempfehlungen für eine mögliche Schlichtung erhalten können.

Hasskommentare gehen laut Trömel schon auf die 2000er Jahre zurück. Da haben sie sich noch vor allem in Foren abgespielt. In sozialen Netzwerken wie etwa Facebook oder Twitter sind jedoch erheblich mehr Leute angemeldet - entsprechend umfangreicher sind die Diskussionen und diese werden durch diskursbestimmende Themen wie Flucht und Migration äußerst emotional geführt. "Die Leute nutzen das Netz als Ventil", sagt Trömel. "Durch Themen wie etwa die Flüchtlingskrise sind große Bevölkerungsmassen emotionalisiert worden." Zudem werde durch Fake News die Empörung geschürt, es entstehe "emotionales Potenzial, um aktiv zu werden."

Foto: dpa/Frank Rumpenhorst


Dass es einen Unterschied in der Online- und Offline-Kommunikation gibt, ist Trömel bewusst. Im Internet würden ohne Hemmungen Dinge geschrieben, die im persönlichen Gespräch so nie fallen würden, sagt er. "Die Positionen werden im Laufe solcher Diskussionen immer extremer, die Fronten härter. Ich beleidige jemanden, bis der andere versteht, dass ich Recht habe. Und wer beleidigt wird, reagiert aggressiv. Ein gesellschaftlicher Dialog ist da ausgeschlossen", fasst er zusammen. Deswegen sei es für Moderatoren wichtig, rechtzeitig einzugreifen. "Diese verbale Gewaltspirale muss möglichst früh unterbunden werden."

Dazu entwickelt das "NOHATE"-Projekt die Software. "Die Software soll erkennen, welche Kommunikation Eskalationspotenzial hat", sagt Katharina Franko, Projektmanagerin bei "NOHATE". Mithilfe des Programmes sollen Moderatoren Handlungsempfehlungen gegeben werden. Etwa, bestimmte Kommentare zu löschen oder auszublenden - jedoch nur mit Begründung, um den Nutzern nicht das Gefühl zu geben, zensiert zu werden, sondern um eine "Kommunikationsetikette zu etablieren und zu erhalten", wie es Trömel formuliert. Außerdem sollen den Moderatoren Schlichtungsstrategien empfohlen werden. Durch Nachfragen zum Beispiel, wie jemand zu seiner Ansicht gelangt ist, oder, indem sie die Nutzer darauf hinweisen, dass das Gespräch in die falsche Richtung und somit vom eigentlichen Thema weggeht.

"Diese verbale Gewaltspirale muss möglichst früh unterbunden werden."Marc Trömel, Geschäftführer von VICO Research & Consulting

Um zu überprüfen, welche Themen genau solche Debatten auslösen, hat das "NOHATE"-Projekt eine Interviewstudie durchgeführt. Dabei wurden unter anderem große Verlage, Zeitungen und Online-Plattformen befragt, die in ihren Web-Auftritten Erfahrung mit Hasskommentaren gemacht haben. Die Teilnehmer möchten laut Katharina Franko aber anonym bleiben. Die Studie hat ergeben, dass nicht nur die Asylpolitik um Themenkomplexe wie Flucht, Migration und Religion solche Kommentare im Internet auslöst. Kriminalität, Feminismus, Rente, Verkehr, Kinderbetreuung, Impfen und auch Fußball werden online äußerst emotional und unsachlich diskutiert.

Auf Basis dieser Erkenntnisse entwickelt die Beuth-Hochschule einen Algorithmus, der Hasskommentare in Online-Diskussionen frühzeitig erkennen soll, bevor sie eskalieren. Damit die "automatisierte Erkennung" von Hate Speech möglichst effizient funktioniert, sammelt VICO Texte, etwa Zeitungsartikel mit den dazugehörigen Kommentarspalten oder Social Media-Beiträge, in denen Hasskommentare vorkommen. Mit diesen Datenmengen soll das System "spezifiziert" werden: "Der Algorithmus wird entwickelt und trainiert und damit ständig verbessert", sagt Franko. Das Team möchte die Software 2020 veröffentlichen.


Weitere Angebote, Produkte und Unternehmen der noz MEDIEN