„Kommunikation im Netz braucht klare Regeln“

Monday, 01. February 2021 um 08:09 Uhr

Das Thema „Hate Speech“ steht im Zentrum einer interdisziplinären Tagung der Universität Hildesheim am 8. Februar. Bevor künstliche Intelligenz helfen kann, solche Hassbotschaften herauszufiltern, muss menschliche Intelligenz sich erstmal darauf verständigen, welches Kommunikationsverhalten im Netz angemessen ist – und welches nicht. Ein Interview mit Informationswissenschaftler Prof. Dr. Thomas Mandl über den sozialen Frieden im Netz und wie man ihn erreichen kann.

Warum gibt es überhaupt soviel Hass im Netz - wer profitiert davon?

Das sind zum einen politische Randgruppen, die in der parlamentarischen Demokratie kein Gehör finden und sich im Netz Aufmerksamkeit und eine Gruppenidentität verschaffen. Zum anderen Einzelpersonen, die ihre negativen Emotionen und Aggressionen einfach mal loswerden wollen, und aus den Reaktionen darauf Selbstbestätigung ziehen. Sie müssen sich nicht groß mit einem Thema auseinandersetzen, es reicht, einfach „draufzuhauen“ und dann abzuwarten, wie andere entweder zustimmen oder sich davon provozieren lassen. Als drittes gibt es noch wirtschaftliche Aspekte der gezielten Fehlinformation und Hassrede – denn über die damit verbundenen Klicks lässt sich viel Geld verdienen. Für den vorletzten US-Wahlkampf beispielsweise ist sehr gut dokumentiert, wie viele politisch Unbeteiligte auf diese Weise Profit gemacht haben.

In Deutschland sind sehr viele auch abwertende Äußerungen durch die Meinungsfreiheit gedeckt. Lässt sich pauschal sagen, an welcher Stelle die Grenze zur Illegitimität überschritten ist?

Letztlich regeln die Strafgesetze, wann eine solche Grenze überschritten ist. In einigen Bereichen ist das relativ klar geregelt, in anderen, wie beim Thema Beleidigung gibt es viel Interpretationsspielraum und man könnte sicherlich oft auch anders entscheiden. Ich denke da zum Beispiel an den Fall Renate Künast. [Die Grünen-Politikerin war 2019 auf Facebook als unter anderem als „Drecks Schwein" und „Schlampe" betitelt und mit weiteren sexistischen Äußerungen angegriffen worden. Das Berliner Landgericht hatte zunächst entschieden, dass diese Kommentare keine Beleidigungen seien, das Kammergericht widersprach dieser Entscheidung später, die Verfasser gingen dennoch straffrei aus. Anm. d. Red.]

Wollen Sie in erster Linie rechtswidrige Äußerungen durch KI erfassen und herausfiltern oder geht es generell darum, das Kommunikationsverhalten im Netz auszuwerten?

Für unsere Erfassung liegt die Schwelle da, wo man als Plattformbetreiber einschreiten würde. Das müssen nicht immer illegale Äußerungen sein, sondern auch solche, die in einer Diskussion unangemessen erscheinen, zum Beispiel, weil sie aggressiv formuliert sind. Es geht darum, ein System zu entwickeln, das solche Beiträge vorfiltert, damit dann nochmal ein Mensch gezielt draufschauen kann. Das Level der Strafwürdigkeit wäre noch eine Stufe höher anzusiedeln. Man könnte theoretisch sogar einen Filter programmieren, der solche Fälle direkt an die Staatsanwaltschaft übermittelt.

Was kulturell akzeptiert, aber auch, was rechtlich relevant ist, ist in jedem Land anders. Braucht jeder Kulturkreis – unabhängig von der reinen Übersetzungsleistung – für solche KI-Filter eine eigene Programmierung?

Die Systeme sind natürlich in sich sprachabhängig – wobei es sogar auch schon Verfahren gibt, die sprachübergreifend funktionieren. Aber in der Regel liegt der Fokus auf einem Sprachraum. Im Deutschen haben wir bei der Programmierung den großen Vorteil, dass viele auswertbare Ressourcen für die Computerlinguistik zur Verfügung stehen, viele Lexika, viele Modelle, viele Algorithmen. Zwar weniger als im Englischen, aber auf jeden Fall deutlich mehr als beispielsweise für Hindi. Neben der Sprache müssen natürlich auch der jeweilige Rechtsraum berücksichtigt werden, ebenso wie kulturelle Unterschiede im Kommunikationsverhalten – sowohl bezogen auf die Form, als auch bezogen auf die Inhalte. In der konservativen indischen Gesellschaft liegt zum Beispiel die Schwelle deutlich niedriger, was Anzüglichkeiten bis hin zu pornographischen Inhalten angeht. Das ist dort sehr verpönt und würde sehr viel eher als in Deutschland restringiert oder zensiert werden. In den USA dagegen wird die Meinungsfreiheit extrem hoch angesetzt, da wird auch online wenig reglementiert.

Mit welchem Ziel sollen Hassbotschaften im Netz gefunden werden? Und wer soll diese Technologien später einsetzen?

Das Ziel ist zum einen, die entsprechende Technologie erstmal überhaupt zu entwickeln. Zum  anderen geht es uns darum, die Diskussion darüber, wie gut bestimmte Algorithmen greifen, in der Wissenschaft voranzubringen. Am Ende muss die Gesellschaft erkennen können, ob ein Plattform-Betreiber Filterfunktionen sinnvoll einsetzt, oder ob er viel zu viel rausfiltert oder viel zu wenig.  

Ist der Hass tatsächlich im Netz größer – oder ist es nicht viel eher so, dass sich die Menschen unter dem Deckmantel der Anonymität oder wegen der fehlenden persönlichen Begegnung dort freier äußern, ihre Meinungen und Überzeugungen aber auch im realen Leben nicht anders sind?

Es gibt im zwischenmenschlichen Umgang erlernte soziale Verhaltensregeln, die aber im Netz nicht in gleicher Weise zum Tragen kommen. Im direkten, persönlichen Kontakt würde man wohl kaum gleich alles sagen, wie es einem in den Kopf kommt. Man agiert man kontrollierter und differenzierter, auch weil man sein Gegenüber vielleicht kennt oder auch in Zukunft nochmal treffen wird, möglicherweise auch in irgendeiner Hinsicht auf diese Person angewiesen sein wird. Wenn man Kritik äußern möchte, überlegt man sich daher sehr genau, wie man diese angemessen rüberbringt.  Aber im Netz kennt man sein Gegenüber häufig nicht und wird ihm möglicherweise auch nie begegnen, zudem ist kein erlerntes Verhaltensmuster für diese Form der Kommunikation abrufbar. Im Gegenteil: Wenn man viel im Netz unterwegs ist und viele abwertende, womöglich beleidigende Beiträge und Kommentare liest, stellt sich der Eindruck ein, das sei die übliche Art und Weise wie man im Internet kommuniziert. Um dieser Entwicklung entgegenzusteuern, muss ein von Grund auf anderes Kommunikationsmuster erlernt werden.

Das Löschen von Beiträgen führt schnell zum Vorwurf der Zensur, vor allem, wenn die Inhalte aus rechtlicher Sicht nicht zu beanstanden sind oder sich zumindest noch in einem Graubereich bewegen. Eine ähnliche Debatte sieht man häufig in Bezug auf das Verbot umstrittener politischer Gruppierungen. Deren Anhänger verlieren ja auch  durch ein Verbot nicht ihre grundlegenden Überzeugung, sondern sind schlimmstenfalls nur schwerer zu erfassen und zu kontrollieren. Besteht im Internet nicht auch die Gefahr, dass bestimmte Meinungen zwar aus der öffentlichen Debatte verdrängt werden, dann aber in anderen Kontexten sehr viel größeren Zuspruch erfahren?

Ich glaube, in vielen Fällen fehlt den Menschen, die Hassbotschaften absetzen, das Bewusstsein dafür, dass das auch im Netz nicht nur unangemessen, sondern möglicherweise auch strafbar ist. Es braucht klare Regeln – und eben auch Verbote – um deutlich zu machen, dass man sich auch im Internet nicht einfach verbal austoben kann, sondern es auch dort ein geregeltes Kommunikationsverhalten gibt. Wenn bestimmte Meinungen lange im Netz stehen bleiben und dort lesbar sind, entsteht daraus der Eindruck, dass sie normal und akzeptiert sind. Deshalb ist es wichtig, solche Kommentare zu entfernen. Der soziale Frieden einer Gesellschaft muss auch auf den sozialen Plattformen durchgesetzt und erhalten werden.

Wessen Aufgabe ist es, beispielsweise hetzerische oder gewaltverherrlichende Inhalte herauszufiltern (bzw. von vornherein nicht zuzulassen)? Die des Staates? Oder die der Plattform-Betreiber?

Grundsätzlich kann diese Aufgabe nur der Staat haben. Der kann allerdings Teile der Umsetzung an die Plattformbetreiber delegieren, die ja immerhin auch Geld mit den  Inhalten verdienen. Es kann nicht sein, dass die Gesellschaft für die daraus entstehenden Probleme die Kosten trägt. Aber über die grundlegenden Regeln, was gelöscht werden muss, in welcher Zeitspanne usw., muss der Staat entscheiden.

Wären Sie für eine Klarnamen-Pflicht im Netz?

Nein. Die gibt es in China – aber wir sollten das aus guten Gründen nicht einführen. Für die Strafverfolgung muss natürlich eine Identifikation möglich sein, aber dafür reicht auch die IP-Adresse. Um eine Klarnamenpflicht durchzusetzen, müsste man seine Ausweispapiere kopieren und einem privaten, meist im Ausland ansässigen Unternehmen zur Verfügung stellen, um überhaupt einen Account zu kriegen. Das ist aus datenschutzrechtlicher Sicht sehr bedenklich.

Kurz vor dem Präsidentschaftswechsel in den USA hat Twitter den Account des noch-amtierenden Präsidenten Donald Trump gesperrt. War das aus Ihrer Sicht ein richtiger Schritt?

Ich finde es ein bisschen wohlfeil, das ganz zum Ende der Präsidentschaft zu tun, nach das Unternehmen Twitter mit Trump schon sehr viel Geld verdient hatte. Um wirklich ein Zeichen zu setzen, hätte schon viel früher passieren müssen und nicht zum Schluss, um dann als Unternehmen nochmal richtig Aufmerksamkeit zu bekommen. Generell finde ich es richtig, dass Twitter eingegriffen hat, aber der bessere Weg wäre aus meiner Sicht das Löschen einzelner Posts gewesen. Auf der anderen Seite hat Twitter natürlich an sich kein Zensurrecht und die Meinungsfreiheit ist in den USA ein sehr hoher Wert. Man sieht also auch an diesem Punkt sehr deutlich, wie wichtig es ist, die gesellschaftliche Diskussion zu führen und für die Kommunikation im Netz zu klaren Regeln zu finden.

              

Interview: Sara Reinke

 

Die Tagung

Die öffentliche Online-Tagung "Interdisziplinäre Perspektiven auf Hate Speech und ihre Erkennung (IPHSE)"  am Montag, den 08. Februar 2021, wird ausgerichtet vom Institut für Informationswissenschaft und Sprachtechnologie, dem Institus für Übersetzungswissenschaft und Fachkommunikation und dem Institut für Sozialwissenschaften der Universität Hildesheim.


Prof. Thomas Mandl, Institut für Informationswissenschaft und Sprachtechnologie. Foto: Daniel Kunzfeld