Strafbare „Hassrede“ im Internet erkennen

FernUni-Professor Torsten Zesch hilft dem Bundeskriminalamt mit seiner Expertise, um „Hassrede“ im Netz zu erkennen. Drei Viertel der Deutschen haben Hass im Internet erlebt.


Prof. Dr. Torsten Zesch (Forschungsschwerpunkt D²L²) ist Experte für Sprachtechnologie an der FernUniversität in Hagen. Seine Expertise setzt er im Projekt „Einsatz von KI zur Früherkennung von Straftaten (KISTRA)“ ein, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. In dem Projekt geht es jedoch nicht um einfache Streitereien oder Shitstorms, sondern um die Hasskommentare, die tatsächlich strafbar sind.

Foto: Westend61/Getty Images
Viele Kommentare in sozialen Netzwerken sind unschön oder wirken toxisch. Mehr als drei Viertel der Deutschen geben laut einer forsa-Studie an, schon einmal „Hate Speech“ (Hassrede) im Internet begegnet zu sein.

Früherkennung von Straftaten

Die polizeiliche Kriminalstatistik zeigt in den vergangenen Jahren einen deutlichen Anstieg von Straftaten mit Internetbezug. Um hier künftig effektiver eingreifen zu können, wird eine Technologie benötigt, die strafrechtlich relevante Hasskommentare erkennt. Sie soll den Ermittlern des Bundeskriminalamts (BKA) helfen, Straftaten im Netz besser verfolgen zu können. Die Koordination übernimmt die Zentrale Stelle für Informationstechnik im Sicherheitsbereich (ZITiS). Zahlreiche Projektpartner arbeiten an dem Vorhaben, wie auch die FernUniversität in Hagen. Gemeinsam mit dem Projektmitarbeiter Marius Hamacher ist Prof. Zesch dafür verantwortlich, mit Methoden der künstlichen Intelligenz strafbare von nicht strafbaren Inhalten zu unterscheiden.

Meinungsfreiheit oder staatliche Kontrolle?

„Die große Anzahl von Kommentaren in sozialen Netzwerken kann nicht mehr rein manuell überprüft werden. Die Betreiber setzen daher bereits automatische Filter ein, um beispielsweise Hasskommentare zu löschen“, sagt Torsten Zesch. „Viele der gelöschten Kommentare sind unschön oder gar toxisch, aber nicht strafrechtlich relevant“. Daher wird das Projekt von Juristinnen und Juristen begleitet, um beurteilen zu können, welche Kommentare tatsächlich strafbar sind. Der deutsche Staat muss sehr genau abwägen zwischen der Meinungsfreiheit als Grundrecht auf der einen und dem Strafrecht auf der anderen Seite, denn dieses gilt auch im Internet.

Foto: FernUniversität
Prof. Dr. Torsten Zesch ist Experte für Sprachtechnologie an der FernUni. Seine Expertise setzt er im Projekt „Einsatz von KI zur Früherkennung von Straftaten (KISTRA)“ ein.

Menschen werden in ihrer Ausdrucksweise kreativ

In seiner Arbeit am Projekt steht Zesch vor mehreren Herausforderungen. „Menschen werden gerade in ihrer Sprache und Ausdrucksweise sehr kreativ“, sagt der Professor. Sie verwenden in Hasskommentaren oft Metaphern, Abkürzungen oder abwertende Synonyme für Personengruppen (z.B. für Geflüchtete oder Frauen) und bauen Rechtschreibfehler ein, um von solchen Technologien nicht erkannt zu werden. „Eine unserer wichtigsten Aufgaben ist es, den neuesten Sprachgebrauch abzubilden – aktuelle Begriffe und Abkürzungen. Damit der Algorithmus zuverlässiger strafbare Kommentare erkennt und nicht so leicht ausgetrickst werden kann“, sagt Zesch.

Dabei relevant sind vor allem Kommentare, die volksverhetzend sind, zu Straftaten anstiften oder diese ankündigen. Für Torsten Zesch ist die Zusammenarbeit mit den Juristinnen und Juristen wichtig. „Das Strafgesetzbuch kann ein Computer noch nicht lesen, daher übersetzen wir es in eine Modellierung, damit die Algorithmen solche Kommentare erkennen.“ Dabei gibt es auch die Herausforderung, dass scheinbar harmlose Wörter auch in verschiedenen Kontexten sehr gefährlich sein können. „Diesen Kontext zu erkennen ist nicht immer einfach für den Computer.“

Sprachtechnologie an der FernUni einsetzen

Prof. Zesch möchte gerne nach dem Projekt weiterhin am Thema forschen, beispielsweise an Bildern, die im Internet massenhaft gepostet werden. „Bilder mit Text werden zunehmend für Hassrede verwendet. Hier reicht es nicht nur das Bild oder nur den Text zu verstehen, sondern der Algorithmus muss in der Lage sein beides zusammen zu interpretieren.“

Ob man die Technologien zur Erkennung von Hassrede, wie sie von Torsten Zesch und seinem Team entwickelt werden, auch an der FernUniversität einsetzen kann, wird gerade geprüft: „Es könnte als Frühwarnsystem dienen, wenn das Diskussionsklima in Online-Gruppen oder Seminaren mit vielen Teilnehmenden nicht in Ordnung ist. Aber einen solchen ,digitalen Aufpasser‘ halte ich für ethisch grenzwertig.“

Die Professur von Torsten Zesch ist im Forschungsschwerpunkt „Digitalisierung, Diversität und Lebenslanges Lernen. Konsequenzen für die Hochschulbildung“ (D²L²) der FernUniversität verankert, wo sein Team am Einsatz von künstlicher Intelligenz zur Verbesserung der digitalen Lehre forscht. In Zukunft sollen personalisierte, adaptive Lernsysteme entstehen, welche zum Beispiel erkennen, ob eine Antwort richtig oder falsch ist und entsprechendes Feedback geben können. Beim Projekt „KISTRA“ hilft er erst einmal dabei, dass der Staat mehr Straftaten im Internet verfolgen kann und somit weniger Hass verbreitet wird. So kann eine vernünftige Diskussionskultur entstehen – auch im Netz.

 

Hintergrund: Hassrede im Netz

Mehr als drei Viertel der Deutschen geben laut einer forsa-Studie an, schon einmal „Hate Speech“ (Hassrede) im Internet begegnet zu sein. Das Verständnis für Verfasserinnen und Verfasser von Hasskommentaren nimmt dabei immer mehr ab und der Anteil derjenigen, denen die Hasskommentare im Netz Angst machen, nimmt stark zu (Frauen: 51%; Männer: 33%).

Hasskommentare wirken toxisch

Hasskommentare führen bei einigen Menschen dazu, sich bei Social Media „abzumelden“, da sie die sozialen Medien als einen Ort „ohne vernünftige Diskussionskultur“ empfinden. In einer Umfrage von statista im Jahr 2020 gaben einige Befragte an, möglicherweise ihren Account löschen zu wollen (36 % Facebook, 27 % Twitter und 22 % Instagram).


Das könnte Sie noch interessieren