Martin-Luther-Universität Halle-Wittenberg

Ansprechpartner für die Presse

Tom Leonhardt
Wissenschaftsredakteur
Telefon: +49 345 55-21438

Ansprechpartner zu dieser Pressemitteilung

Uwe Bretschneider
Institut für Wirtschaftsinformatik
Telefon: +49 345 55-23471

Kontakt

Manuela Bank-Zillmann

Telefon: +49 345 55-21004
Telefax: +49 345 55-27404

Universitätsplatz 8/9
06108 Halle

Weiteres

Login für Redakteure





Hate Speech: Mit Algorithmen gegen digitale Hetze

Nummer 021/2017 vom 06. Februar 2017
Täglich veröffentlichen Millionen von Menschen Beiträge und Kommentare auf Facebook, Twitter und Co. Einige davon haben vor allem ein Ziel: andere Menschen zu beleidigen, zu diffamieren und gegen sie zu hetzen. In der Flut dieser Beiträge fällt es schwer, den Überblick zu behalten. Abhilfe schafft hier ein Programm von Wirtschaftsinformatikern der Martin-Luther-Universität Halle-Wittenberg (MLU), mit dem sich Hate Speech automatisch erkennen lässt.

Es klingt ein wenig deprimierend, wenn man sich den Arbeitsalltag von Uwe Bretschneider anschaut: In den letzten Jahren hat sich der Wirtschaftsinformatiker mit verschiedensten Formen des digitalen Mobbings beschäftigt - und wie sich dieses computergestützt erkennen lässt. "Es ist traurig, diese Kommentare zu lesen. Als Forscher versucht man natürlich trotzdem, sachlich zu bleiben und diese Eindrücke nicht mit nach Hause zu nehmen", so Bretschneider, der am Lehrstuhl für E-Business der MLU an seiner Promotion arbeitet.

Vor einigen Jahren waren es vor allem Schüler und Lehrer, die von Cyber-Mobbing, also verbalen Attacken im Internet, betroffen waren. Heute richtet sich der Unmut vieler Internetnutzer pauschal gegen ganze Bevölkerungsgruppen, Politiker oder Journalisten. Auf vielen Facebook-Seiten laufen täglich unzählige Kommentare ein, in denen Menschen ihren Unmut gegenüber verschiedenen Themen kundtun. Wie auch beim Mobbing können diese Kommentare sehr verletzend sein, "mitunter rufen die Kommentatoren sogar offen zur Gewalt gegenüber einer bestimmten Gruppe auf", ergänzt Bretschneider. Deshalb haben viele Seitenbetreiber Grundregeln für ein respektvolles Miteinander entwickelt, eine sogenannte Netiquette. Beiträge, die dagegen verstoßen, werden in der Regel gelöscht. Bisher überprüfen Moderatoren jeden Beitrag händisch - eine sehr zeitaufwendige Aufgabe.

An dieser Stelle setzt der Algorithmus an, den Bretschneider entwickelt hat: "Das Programm analysiert die Kommentare und sucht nach Wörtern und Wortgruppen, die in einer Datenbank hinterlegt sind", so der Wissenschaftler. Das können zum Beispiel Schimpfwörter oder Aufforderungen zu Gewalt sein. Die Datenbank lässt sich beliebig anpassen. Wird ein Beitrag mit Hate Speech erkannt, kann dieser entweder automatisch gelöscht werden oder einem Moderator zur Kontrolle vorgelegt werden. Das alles ist erstmal nichts Neues: Andere Informatiker haben ähnliche Verfahren entwickelt, mit denen sich Texte auf bestimmte Begriffe durchsuchen lassen. "Für Hate Speech ist es aber zusätzlich wichtig zu wissen, gegen welche Personen sich eine bestimmte Aussage richtet", sagt Bretschneider. Deshalb hat der Wirtschaftsinformatiker sein Programm noch um einen Zwischenschritt ergänzt: Es analysiert die Kommentare im Kontext der Diskussion auf Facebook und erkennt dadurch den Adressaten einer Aussage; Bretschneider unterscheidet insbesondere zwischen Aussagen gegen Geflüchtete, Politiker oder Medien.

Der Nutzen eines solchen Algorithmus hängt davon ab, wie gut und wie genau er Hate Speech erkennt. Das überprüfte Bretschneider mit Hilfe gleich mehrere Datensätze: Er sammelte Mitteilungen des Kurznachrichtendienstes Twitter, Beiträge aus Foren im Internet sowie Kommentare von öffentlich einsehbaren Facebook-Seiten. Diese Daten wertete er zunächst händisch aus, um eine Vergleichsgröße für seine Software zu haben. Im Anschluss ließ er den Algorithmus die gleichen Datensätze analysieren. Das Ergebnis: 70 Prozent der vom System erkannten Treffer waren korrekt, etwa 40 Prozent aller in Frage kommenden Kommentare blieben unerkannt. Das mag zunächst ernüchternd klingen, könnte die Arbeitszeit für Moderatoren aber schon deutlich reduzieren.

Einen Zensur- oder Überwachungsalgorithmus habe er nicht entwickelt, sagt Bretschneider: "Es sollte nie darum gehen, das Recht auf freie Meinungsäußerung zu unterdrücken oder bestimmte Meinungen zu verbieten." Lediglich die Art und Weise, wie diese Meinungen geäußert werden, könne und dürfe man überprüfen. Den Rest müsse eine Demokratie aushalten.

 

Zum Seitenanfang