Das Phänomen HateSpeech und seine Erkennung durch KI - interdisziplinär - international - erklärbar? (HASeKI)

Das Phänomen HateSpeech und seine Erkennung durch KI - interdisziplinär - international - erklärbar? (HASeKI)

Hate Speech stellt in Online-Medien ein erhebliches Problem dar und wir zunehmend als gesellschaftliche Bedrohung wahrgenommen. Hasserfüllte Botschaften erschweren einen sachlichen öffentlichen Diskurs und gefährden so die demokratische Meinungsbildung.
 Angesichts unablässiger Ströme nutzergenerierter Inhalte haben Regierungen und private Intermediäre ein gesteigertes Interesse an skalierbaren automatisierten Werkzeugen zur Content-Regulierung entwickelt, die auch KI-basierte Methoden beinhalten. Längst entwickeln große Plattformen Verfahren der Künstlichen Intelligenz, um problematische Inhalte zu erkennen. Das im Oktober 2019 ergangene Urteil des EUGH sieht den Einsatz von automatisierten Verfahren als notwendig an. An mehreren Datensets werden Algorithmen erprobt und evaluiert, wobei Algorithmen des Deep Learning zum Einsatz kommen, welche sich in den letzten Jahren etabliert haben.
 Die Delegation von autoritativer Content-Regulierung an privatwirtschaftliche Intermediäre ist zudem politisch sehr umstritten. KI-Verfahren könnten die gesellschaftliche Akzeptanz in dem Maße weiter verringern, indem Löschentscheidungen aus intransparenten Verfahren hervorgehen.
 Um diese Forschung im Bereich der Künstlichen Intelligenz sinnvoll einordnen zu können, ist ein intensiverer interdisziplinärer Dialog notwendig. Zudem ist ein Austausch mit der Bürgergesellschaft und der Politik über den Einsatz und die Grenzen von automatisierten Verfahren notwendig, um die gesellschaftliche Akzeptanz zu befördern.
 HASIKI trägt dazu bei. Durch die Kooperation der Antragsteller aus Informationswissenschaft, Computerlinguistik, Sprachwissenschaft und Politikwissenschaft sowie im Austausch mit weiteren Fächern wird ein breit angelegter interdisziplinärer und internationaler Dialog auf den Weg gebracht, welcher den aktuellen Stand der Forschung sammelt und bewertet. Diskutiert werden soll zudem, wie die Leistungsfähigkeit automatischer Verfahren zur Hate-Speech-Erkennung besser analysiert sowie erklärt und transparent gemacht werden kann. Ebenso beschäftigt sich HASEKI mit den Möglichkeiten zur Regulierung von KI Methoden zur Erkennung von Online Hetze. 
 Zwei Fachtagungen ermöglichen eine internationale und interdisziplinäre Fachdiskussion, in die auch Zivilgesellschaft eingebunden wird. Im Rahmen von HASEKI werden Materialien für die Vermittlung von Kompetenz im Themenbereich erarbeitet, es bestehende Benchmarks werden analysiert und ausgewertet und eine Webseite soll Transparenz bezüglich aktueller Klassifikationsverfahren schaffen.
 https://www.uni-hildesheim.de/fb3/institute/iwist/forschung/forschungsprojekte/aktuelle-forschungsprojekte/haseki/
  

Projektlaufzeit
-
Projektart
Projektleiter