Glossar zum Thema Hate Speech und ihre Erkennung
A
Algorithmische Governance | Immer häufiger werden Algorithmen in Wirtschaft, Politik und Verwaltung als Steuerungsinstrumente eingesetzt. Insbesondere privatwirtschaftliche Akteure, darunter Plattformbetreiber, setzen algorithmische Governance-Instrumente ein, um das Nutzungsverhalten ihrer User*innen zu lenken. |
Algorithmus | Eine nachvollziehbare, eindeutige Beschreibung einer Folge von Aktionen zur Lösung eines (zumeist mathematischen) Problems. Es handelt sich also um eine Anleitung zur Problemlösung. Sie wird in einzelnen Schritten durchgeführt und kann wiederholt werden. Jedes Computerprogramm ist die Durchführung/Ausführung eines Algorithmus beziehungsweise von Algorithmen. |
Alternative Fakten | Begriff zur Beschönigung von Falschnachrichten, den Kellyanne Conway, ehemalige Beraterin des US-Präsidenten Trump, 2017 in einer Rede benutzte. |
Amplifier Accounts (Verstärkeraccounts) | Sehr aktive, anonyme, produktive Nutzerkonten bei Twitter und Facebook, die genutzt werden, um einen angeblichen Konsens zu einem Thema zu schaffen, z. B. durch bestätigende Kommentare |
Annotation (Etikettierung) | Bei einer Annotation, auch Etikettierung genannt, werden zusätzliche Informationen zu den Daten, die analysiert und weiterverarbeitet werden sollen, hinzugefügt. Die Daten werden also gekennzeichnet. Diese Informationen sind eine Hilfe für den Computer und den Menschen bei der weiteren Verarbeitung der Daten. Für den Menschen können Annotationen hilfreich für das Verständnis und die Gliederung von Informationen sein. Ohne die Annotationen können keine Algorithmen des maschinellen Lernens verwendet werden, da sie mithilfe von annotierten Daten lernen. Bezogen auf die automatische Erkennung von Hasskommentaren könnte die Annotation von Beiträgen in sozialen Netzwerken beispielsweise mit einem der Werte "→Beleidigung", "Hasskommentar", "Vulgär" oder "Normaler Beitrag" erfolgen. |
Apophänie | Begriff aus der Psychologie, der das Phänomen beschreibt, scheinbare bedeutungsvolle Muster und Beziehungen in zufälligen, bedeutungslosen Einzelheiten der Umwelt wahrzunehmen. Das Phänomen spielt auch in Verschwörungstheorien eine Rolle. |
Auswahl von Merkmalen (Feature Selection) | Auswahl der Merkmale von Eingabedaten. Bezogen auf ein →Künstliches Neuronales Netz oder ein →Maschinelles Lernverfahren allgemein muss im Vorfeld überlegt werden, welche Eigenschaften relevant sind, um ein gutes Ergebnis in Form einer korrekten Vorhersage zu erhalten. Diese Merkmale gehen als Eingabevariablen in neuronale Netzwerke ein. Eingabevariablen sind also die Grundlage für ein gutes Ergebnis. Bei automatischer Hate-Speech-Erkennung werden beispielsweise sprachliche Eigenschaften von Hasskommentaren ausgewählt. Deshalb ist es relevant, sich zu überlegen, welche Eigenschaften Hasskommentare aufweisen (könnten). |
Automatische Annotation | Eine →Annotation/Etikettierung mit einem →Algorithmus bzw. Computerprogramm gilt als automatisch. Da eine →Manuelle Annotation sehr aufwändig sein kann, sind Verfahren zur Automatisierung oft sinnvoll. |
Awareness | Ausmaß, in dem die Inhalte von der Zielgruppe gesehen werden und das anhand unterschiedlicher Metriken wie Impressionen, Reichweite, Klicks u. a. gemessen wird. |
B
Bedrohung | Nach Paragraph 241 StGB ist die ernsthafte und schwere Bedrohung von Menschen strafbar. Dies gilt auch für Bedrohungen im Internet. Inhalte von strafbaren Bedrohungen sind beispielsweise Körperverletzung, Vergewaltigung oder Mord. Hinreichend ist, wenn die Bedrohung objektiv als ernst erscheint und der/die Betroffene sich bedroht fühlt. Unerheblich ist hierbei, ob die Drohung lediglich geäußert, nicht jedoch in die Tat umgesetzt wird. Die Bedrohung kann sich an die adressierte Person direkt, deren Angehörige oder Freund*innen richten. Die Strafe für eine Bedrohung reicht von einer Geldstrafe bis zu einer Freiheitsstrafe von bis zu einem Jahr. |
Beleidigung | Der Tatbestand der Beleidigung liegt nach Paragraph 185 StGB vor, wenn eine Person die Ehre einer anderen mündlich, schriftlich oder durch Gesten verletzt. Beleidigungen sind dann strafbar, wenn eine Person herabgewürdigt oder als minderwertig dargestellt wird. Zudem muss erkennbar sein, gegen wen die Beleidigung sich richtet. Die Staatsanwaltschaft ist nicht verpflichtet einen Strafantrag auf Beleidigung zu verfolgen und verweist die Kläger*innen mitunter auf den Weg der Privatklage. |
Bestandsdatenauskunft | Bestandsdaten sind Daten von Nutzer*innen, die bei der digitalen Kommunikation durch Betreiber erfasst und vorübergehend gespeichert werden. Darunter fallen personenbezogene Daten, die sich aus dem Abschluss eines Vertrages ergeben, ebenso wie vielfältige digitale Spuren, die sogenannten Metadaten. Zu den Metadaten zählen die IP-Adresse und der Zeitpunkt des Datenzugriffs. Nicht dazu zählen die Inhalte von Kommunikation. Die entsprechenden Daten können von den Anbietern auf Anfrage an Sicherheitsbehörden manuell weitergegeben werden. Bei einem Gesuch der Bestandsdatenauskunft werden oftmals Informationen über Nutzungs- und Kund*innendaten, Passwörter und IP-Adressen angefragt. Die rechtliche Grundlage dafür in Deutschland bietet das Telekommunikationsgesetz (§113 TKG). Grundsätzlich ist dieser Vorgang verfassungsrechtlich zulässig; Voraussetzung ist, dass die Übermittlung der Daten der Verfolgung einer besonders schweren Straftat dienlich ist. |
Boomer | Hämische Bezeichung für Personen, die in Zeiten steigender Geburtenraten nach dem Zweiten Weltkrieg geboren wurden. Die Phrase Ok, Boomer wertet Aussagen dieser Personen in Generationenkonflikten ab. |
Bot | Programm, das (nahezu) automatisiert Aufgaben erledigt. Es veröffentlicht Beiträge, Antworten auf Anfragen oder Kommentare in sozialen Medien und wird zur Informationsverbreitung oder gezielten Meinungsbeeinflussung genutzt. |
Botnet(z) | Gruppe automatisierter Schadprogramme. |
Budapest-Konvention | 2001 wurde der erste internationale Vertrag gegen Cyber-Kriminalität, die Budapest-Konvention, durch den Europarat verabschiedet. Die Konvention trat 2004 in Kraft. Das Übereinkommen gehört auf europäischer Ebene zu den zentralen Instrumenten in der Bekämpfung von digital begangenen Straftaten. Über die Konvention wird eine Harmonisierung des Strafrechts der beteiligten Nationen und eine bessere internationale Zusammenarbeit bei der Bekämpfung von Cyber-Kriminalität angestrebt. Die Gegenstände der Konvention sind vornehmlich Verletzungen des Urheberrechts, der Besitz und die Verbreitung von Kinderpornographie, digitaler Betrug sowie Verstöße gegen die Sicherheit von elektronischen Netzwerken. Ein Zusatzprotokoll aus dem Jahr 2003 ergänzt die Konvention um die Kriminalisierung und strafrechtliche Verfolgung von rassistischer und fremdenfeindlicher →Hate Speech und →Volksverhetzung im Internet. |
C
Clickbait | "Ködern" von Klicks: Versuch, durch reißerische Phrasen oder Überschriften zum Klicken auf einen Link zu verleiten. Clickbait wird eingesetzt, um durch höhere Klickzahlen mehr Geld zu verdienen. |
The EU Code of conduct on countering illegal hate speech online | Im Mai 2016 beschloss die Europäische Kommission gemeinsam mit Facebook, Microsoft, Twitter und YouTube einen Verhaltenskodex über die Regulierung von rassistischer und fremdenfeindlicher →Hate Speech auf Internetplattformen. In den darauffolgenden Jahren traten weitere →Plattformen, darunter Instagram, Snapchat, Dailymotion und TikTok, dem freiwilligen Kodex bei. Über den Verhaltenskodex wird festgelegt, wie die beteiligten Plattformen mit rassistischer Hassrede auf ihrem Medium umzugehen haben. Von Nutzer*innen gemeldete, potenziell rechtswidrige Inhalte gilt es unmittelbar zu prüfen und ggf. umgehend zu entfernen. Dennoch ist das Prinzip der →Meinungsfreiheit zu schützen. Beobachtet und evaluiert wird die Umsetzung des Kodex von national agierenden, zivilgesellschaftlichen Organisationen |
Community Standards (Gemeinschaftsstandards) | Über die Gemeinschaftsstandards wird festgelegt, was auf einer →Plattform erlaubt ist und was nicht. So soll verhindert werden, dass Nutzer*innen sich auf der Plattform missbräuchlich verhalten. Gemeinschaftsstandards verweisen oftmals auf allgemeine Rechtsnormen. |
Content-Moderation | Unter Content-Moderation wird die Verwaltung, Kuration und Kontrolle der geteilten Inhalte auf einer Kommunikationsplattform im Internet verstanden. Sie ist ein Instrument der →Content-Regulierung. Der Content wird hinsichtlich seiner Passung mit den →Community Standards der jeweiligen →Plattform sowie allgemeinen Rechtsnormen überprüft. Inhalte, die diese Regeln verletzen, werden gemeldet, blockiert oder gelöscht. Ausgeführt wird die Content-Moderation von internen Mitarbeiter*innen, externen Anbietern oder einzelnen Nutzer*innen der jeweiligen Plattform. |
Content-Regulierung | Im Zuge der Content-Regulierung wird in den Informationsfluss auf Internetplattformen eingegriffen. Die Regulationsziele sind vielfältig. Dazu zählen etwa der Kampf gegen Hasskriminalität, →Hate Speech und Desinformation sowie allgemeiner die Wahrung von Rechtsnormen oder der →Community Standards des Mediums. Beispiele für Instrumente der Content-Regulierung sind die Moderation und automatisierte →Uploadfilter. |
Convolutional Neural Network (CNN) (Faltendes Neuronales Netz) | Eine bestimmte →Netzarchitektur eines neuronalen Netzwerkes. Diese Netzarchitektur wird besonders zur Bilderkennung und für Aufgaben der maschinellen Sprachverarbeitung (→Natural Language Processing) verwendet. Ein CNN verarbeitet den →Input (z.B. ein Bild) nicht als Ganzes, sondern einen kleinen Bereich nach dem anderen. Das Convolutional Neural Network kann die wichtigsten Informationen der Eingabe herausfiltern, was den nachfolgenden maschinellen →Lernprozess beschleunigt. |
Cybermobbing | Schikanieren und/oder Diffamieren (Beleidigen, Bedrohen, Bloßstellen oder Belästigen) von Personen über das Internet. |
D
Dangerous Speech (Gefährliche Sprache) | Kommunikative Akte, die das Risiko erhöhen, dass die Rezipient*innen gegenüber Angehörigen einer Gruppe gewalttätig werden (Geflüchtete, Homosexuelle, Frauen usw.). |
Debunking | Missbilligung oder Enthüllung einer Forderung, Behauptung oder einer Stimmung als falsch, übertrieben oder prätentiös. |
Deepfakes | Zusammengesetzt aus den Begriffen →Deep Learning und fake, beschreibt die Herstellung realistisch wirkender Medieninhalte mithilfe künstlicher Intelligenz. Visuelles Material wird auf andere Bilder oder Videos übertragen (z.B. Faceswapping). |
Deep Learning (Tiefes Lernen) | Verfahren des →Maschinellen Lernens, bei dem ein neuronales Netz viele →Schichten zwischen der Eingabe-Schicht und der Ausgabe-Schicht besitzt. In die Eingabe-Schicht werden die relevanten Merkmale (Variablen) eingespeist, während die Ausgabe-Schicht das Ergebnis ausgibt. Befinden sich zwischen →Input (Eingabe) und Ausgabe mindestens drei Zwischenschichten, so spricht man von Deep Learning. Die Zwischenschichten werden Hidden Layers (versteckte Schichten) genannt. Beim Deep Learning werden riesige Datenmengen benötigt. Theoretische Modelle des Deep Learning gibt es schon seit den 1950er-Jahren. Diese Verfahren benötigen allerdings sehr viel Rechenleistung, weshalb sie erst seit wenigen Jahren tatsächlich praktisch eingesetzt werden können. →Deep Learning Modelle können aus Strukturen wie →CNNs oder →RNNs bestehen. |
Desinformation | Bewusst falsche Information, die zur Meinungsbeeinflussung eingesetzt wird. |
Distributionelle Semantik | Bei dieser Semantiktheorie (Semantik = Bedeutungslehre) spielt der Kontext, also der umgebende Text von Wörtern, eine große Rolle. Es wird untersucht, welche Wörter in ähnlichen Zusammenhängen auftreten. Kontexte von Vorkommen im Sprachgebrauch geben Rückschlüsse auf die Merkmale von Wörtern. Wörter haben eine ähnliche Bedeutung (d.h. viele ähnliche Merkmale), wenn sie mit den gleichen Kontextpartnern und in ähnlichen Zusammenhängen vorkommen. |
Dog-Whistling (Hundepfeifen) | Nutzung einer kodierten Sprache, die allgemein verstanden wird und gleichzeitig eine versteckte Bedeutung in Aussagen für eine spezifischere Zielgruppe beinhaltet. Hundepfeifen-Politik wird genutzt, um verfängliche Äußerungen nicht offen artikulieren zu müssen. |
Domain adaptation (Domänenanpassung) | Ein Verfahren, bei dem ein automatisches System, das für eine bestimmte Anwendung trainiert wurde, auf eine andere, jedoch sehr ähnliche Anwendung angepasst wird. Ein Beispiel ist die automatische Detektion von Spam-Mails: Ein Modell wird auf einen bestimmten Mail-Nutzer trainiert und dann bei einem anderen Mail-Nutzer angewandt, der andersartige Spam-Mails erhält. |
Doxing | Internetbasiertes Zusammentragen und anschließendes Veröffentlichen personenbezogener Daten einer Einzelperson oder einer Organisation. |
E
Echokammer | Hypothetischer metaphorischer Raum, in dem konsensuale Aussagen verstärkt und Störgeräusche (wie anders lautende Meinungen) geschluckt werden. |
Enthemmungseffekt | Verlust an Selbstbeherrschung in der schriftlichen Kommunikation im Internet, bedingt durch Kommunikationsbedingungen wie schützende Anonymität, fehlendes soziales Feedback und Asynchronität. |
Entscheidungsbaum (Decision Tree) | Ein Entscheidungsbaum (auch: Decision Tree) bildet ein Regelwerk als eine Reihe von Entscheidungen in einer Baumstruktur ab. Die Entscheidungswege werden durch die Äste des Baumes dargestellt. Die Struktur eines Entscheidungsbaums ist im Vergleich zu anderen Machine-Learning-Verfahren wie →Künstliche Neuronale Netze wesentlich simpler. Es wird überprüft, ob eine bestimmte Eigenschaft bzw. ein Merkmal vorhanden ist. Jede Frage bzw. Entscheidung ist also klar mit ja oder nein beantwortbar. Je nach Entscheidung gelangt man zu einem weiteren Zweig, bei dem eine weitere Eigenschaft bzw. ein Merkmal geprüft wird, bis man bei einem Ergebnis angelangt. |
EU-Rahmenbeschluss zur strafrechtlichen Bekämpfung bestimmter Formen und Ausdrucksweisen von Rassismus und Fremdenfeindlichkeit | Der 2008 verabschiedete Rahmenbeschluss verpflichtet die EU-Mitgliedsstaaten zur strafrechtlichen Erfassung und Verfolgung rassistischer Hasskriminalität. Straftaten werden dann als rassistisch eingestuft, wenn Menschen auf Grund ihrer ethnischen, nationalen oder religiösen Gruppenzugehörigkeit zum Ziel von Hass, Gewalt oder der Aufstachelung zu Straftaten werden. Zudem sieht der Rahmenbeschluss die Strafverfolgung der öffentlichen Billigung, Verharmlosung und Leugnung von Verbrechen gegen die Menschlichkeit und Kriegsverbrechen vor. |
Extremismus | Extreme, radikale politische Haltung jenseits der freiheitlich demokratischen Grundordnung (z.B. Nationalismus, Antisemitismus, Islamismus). |
F
F1-score | Statistisches Maß für die Leistungsfähigkeit eines Systems bei einem Anwendungstest. Gewichteter Mittelwert (harmonisches Mittel) aus der Genauigkeit (→Precision) eines automatischen Systems und dessen Trefferquote (→Recall). Ein hoher F1-score ist ein Zeichen für ein gut funktionierendes Modell. |
Fake News | Falschnachrichten, die im Internet und in anderen Medien verbreitet werden, meist, um politische Meinungen zu beeinflussen. |
Falsch Positiv (False Positive) | "False Positives" stellen den Teil der Daten dar, der fälschlicherweise als "positiv" klassifiziert wurde (→Precision, →Recall). Bei der automatischen Erkennung von Spam-Mails würde das heißen, dass eine Mail im Spamordner landet, obwohl es sich eigentlich nicht um eine Spam-Mail handelt. |
Faltende Schicht (Convolutional Layer) | Faltende Schichten gibt es in →Convolutional Neural Networks. In →CNNs wird nicht mit Vektoren (wie bei anderen neuronalen Netzen üblich), sondern mit Matrizen gerechnet. Ein neuronales Netz besteht aus mehreren →Schichten. In dieser Schicht wird ein Filter auf die einzelnen Matrizen angewandt, der die einzelnen Bereiche der Matrix nochmals genauer analysiert. Der Filter hat eine festgelegte Größe und scannt den →Input der Matrix schrittweise. Durch die Faltenden Schichten kann die Größe der Ergebnismatrix verkleinert werden. Eine Faltende Schicht hat immer eine Ergebnismatrix als Ausgabe. Diese wird dann von einer weiteren Schicht verarbeitet usw. Bei der Bildverarbeitung dienen die Filter dazu, ortsunabhängig Strukturen in den Input-Daten zu erkennen. |
Filterblase | Intellektuelle Isolation von Internetnutzenden durch Algorithmen von Internetseiten, die vorauszusagen versuchen, welche Informationen die Nutzenden auffinden möchten. Informationen, die dem Informationsverhalten der Nutzenden nicht entsprechen, werden ausgeblendet. Dadurch können gegensätzliche Haltungen und Perspektiven entstehen und sich verhärten. |
Flaming | Form des Trollings (→ Troll): Veröffentlichung von Kommentaren, die bewusst provozieren. |
Framing | Verschiedene Formulierungen als verschiedene "Verpackungen" einer Botschaft, die bei gleichem Inhalt das Verhalten der Empfänger*innen unterschiedlich beeinflussen (können). |
G
Gaslighting | Desorientierung, Manipulation und Verunsicherung von Personen, die die Fähigkeit verlieren, richtige und falsche Informationen voneinander zu unterscheiden und gleichzeitig eine Abhängigkeit vom "Gaslighter" entwickeln. |
Gegennarrativ/ Gegenrede | Kommentare, Bilder oder Videos, die falschen oder extremistischen Informationen gegenübergestellt werden, um Mediennutzende gegen Extremist*innen und Falschinformationen zu rüsten und z.B. diskriminierte Gruppen oder Ziele von →Hate Speech zu schützen. |
Gendertrolling | Form des Trollings (→Troll) : Frauen* werden durch Sexualisierung und sexistische →Beleidigungen provoziert. |
Geoblocking | Das Geoblocking wird zur →Content-Regulierung in sozialen Netzwerken eingesetzt. Durch den Einsatz dieser Technik werden Inhalte für Nutzer*innen abhängig vom geographischen Standort des Zugriffs blockiert. Geoblocking kommt zum Einsatz, wenn Nutzungsrechte oder Rechtsnormen hinsichtlich strafbarer Inhalte national variieren. Ein Beispiel hierfür ist die Leugnung des Holocaust. Diese ist in Deutschland, jedoch nicht in den USA, rechtswidrig. →Plattformen, deren Hauptsitz in den USA liegt, behalten sich vor, Inhalte, die den Holocaust verharmlosen oder leugnen, lediglich für Nutzer*innen z.B. aus Deutschland zu blockieren, anstatt sie gänzlich zu löschen. |
Gesetzespaket gegen Rechtsextremismus und Hasskriminalität | Das im April 2021 verabschiedete Gesetzespaket soll die konsequente strafrechtliche Verfolgung von Hasskriminalität und Rechtsextremismus im Internet voranbringen. Plattformanbieter sind dazu verpflichtet, strafbare Inhalte einer, eigens für diesen Zweck eingerichteten, Zentralstelle des Bundeskriminalamts zu melden. Das Gesetz stellt somit eine Ergänzung zu der bereits bestehenden Löschpflicht dar. Zudem unterliegen die Plattformanbieter der Pflicht, bei besonders schweren Straftaten den Behörden der Strafverfolgung und der Gefahrenabwehr Auskunft über die Daten der entsprechenden Nutzer*innen zu erteilen. Das Gesetzespaket sieht zudem vor, dass antisemitisch motivierte Straftaten schärfer geahndet werden und Kommunalpolitiker*innen und das Personal in Rettungsstellen besser geschützt werden. |
Gewaltdarstellung | Nach Paragraph 131 StGB ist die verharmlosende, verherrlichende oder die Menschenwürde verletzende Darstellung einer Gewalttat gegen Menschen oder menschenähnliche Wesen strafbar. Dies gilt zum einen für deren Veröffentlichung durch Schrift, Ton- oder Bildaufnahmen. Zudem ist es strafbar, die Darstellungen von Gewalt einer minderjährigen Person zugänglich zu machen. Hierbei ist unerheblich, ob es sich um eine reale oder fiktionale Darstellung handelt. Die beschriebene Tat stellt eine Verletzung der Menschenwürde und mitunter einen Verstoß gegen das Jugendschutzgesetz dar. Die rechtswidrige Gewaltdarstellung kann mit einer Freiheitsstrafe von bis zu einem Jahr oder einer Geldstrafe geahndet werden. |
Governance | Unter den Begriff der Governance fallen Formen nicht-hierarchischer politischer Steuerung. Diese unterscheiden sich insbesondere durch das enge Zusammenwirken verschiedener politischer Ebenen von traditionellen Formen des Regierens. Bei Governance-Prozessen sind somit verschiedene Ebenen an der politischen Entscheidungsfindung und -umsetzung beteiligt. Analog dazu wird von dem Modell des Mehrebenen-Regierens gesprochen, für das die EU als Paradebeispiel gilt. Die EU-Politik zeichnet sich durch die Verflechtung verschiedener politischer Ebenen aus, darunter die supranationale Ebene der EU, die europäischen Mitgliedsstaaten, die regionale sowie die kommunale Ebene. |
Grooming | Gezielte Kontaktaufnahme und Aufbau von Vertrauen über einen längeren Zeitraum, um Straftaten an der Zielperson zu verüben oder diese zu Straftaten zu verleiten. |
H
Haftungsprivileg | Das Haftungsprivileg ist ein Eckpfeiler der Internetregulierung, der vorsieht, dass →Plattformen und andere →Internetintermediäre nicht für das rechtswidrige Verhalten ihrer Nutzer*innen haften. Die Verantwortung liegt also damit bei den Nutzer*innen, die Inhalte hochladen, nicht bei den Plattformen. Der Haftungsausschluss gilt jedoch nicht, wenn illegale Inhalte von den Plattformbetreibern wissentlich geduldet werden. |
Hate Speech (Hassrede) | Äußerungen, die Individuen oder Menschengruppen aufgrund ihrer Ethnie, Religion, sexueller Orientierung, Behinderung oder aufgrund anderer Eigenschaften diffamieren. |
Hoax | Täuschung durch Falschmeldungen. |
I
Incel | Zusammengesetzt aus den Begriffen involuntary und celibate: Selbstbezeichnung einer entstandenen Internet-Subkultur von heterosexuellen Männern, denen sexuelle Kontakte aufgrund mangelnder Attraktivität verwehrt bleiben und die die Schuld bei Frauen und attraktiven Konkurrenten suchen. Die Gruppierung wird mit Frauenfeindlichkeit, aber u.a. auch mit Rassismus in Verbindung gebracht. |
Input (Eingabe) | Der Input (die Eingabe), den ein Neuron von einer anderen Einheit empfängt, entspricht dem Output (Aktivitätslevel bzw. Ausgabe) der vorgeschalteten sendenden Einheit. Das Gewicht zwischen den beiden Einheiten wird auf den Input angewandt. Je stärker das Aktivitätslevel der sendenden Einheit und je höher das Gewicht zwischen den Einheiten, desto größer ist der Einfluss (Input) auf die empfangende Einheit. Der Input ist also die Information, die von einem Neuron aufgenommen wird. |
Internetintermediär | Internetintermediäre nehmen eine Schnittstellenfunktion zwischen den Anbietern von Informationen und Inhalten im Netz und den Nutzer*innen ein. Durch das Zusammentragen von Informationen, Gütern und Dienstleistungen und die algorithmische Aufmerksamkeitssteuerung machen sie diese für Konsument*innen zugänglich. Zu den größten Intermediären zählen Suchmaschinen wie Google und soziale Netzwerke wie Facebook. |
K
Ko-Regulierung | Unter Ko-Regulierung wird das Zusammenspiel von politisch-administrativer Steuerung und privater →Selbstregulierung verstanden. Hierbei kooperieren staatliche Akteure einerseits und zivilgesellschaftliche und private Akteure andererseits in ihren Regulierungsbestrebungen. In der Praxis sieht dies häufig so aus, dass von staatlicher Seite die Einrichtung selbstregulierender Elemente zwingend vorgeschrieben, ihre Umsetzung überprüft und evaluiert wird. |
Künstliches Neuronales Netz | Der Gedanke hinter Künstlichen Neuronalen Netzen ist das Simulieren der Funktionsweise des Lernens in biologischen Organismen. Auch dort spricht man von neuronalen Netzen. Im menschlichen Nervensystem gibt es Neuronen genannte Zellen (Nervenzellen), die durch verschiedene Nervenzellfortsätze (Axonen und Dendriten) miteinander verknüpft sind. Die Verknüpfungen werden Synapsen genannt, deren Verbundstärke sich je nach äußerlichem Einfluss ändert. Die Änderung der Stärke der Verbindung entspricht dem →Lernprozess. Analog dazu existieren in Künstlichen Neuronalen Netzen Berechnungseinheiten, die Neuronen genannt werden. Diese Neuronen sind mit Gewichten versehen und über diese Gewichte miteinander verbunden. Die Gewichte entsprechen den synaptischen Verbindungen und der Lernprozess entspricht in diesem Fall einer Gewichtsveränderung. Das Gewicht beeinflusst also die (mathematische) Funktion, die auf das Neuron wirkt. In einem biologischen Organismus wirken externe Reize auf die synaptischen Verbindungen ein. Diesen Reizen entsprechen in einem neuronalen Netz die Trainingsdaten. Es werden paarweise Beispiele an Eingabe- und Ausgabe-Daten genommen. Durch das Training werden bestimmte Kanäle stärker frequentiert und ausgebaut. |
L
Lemmatisierung | Das Lemma ist die Grundform eines Wortes, also so, wie man es beispielsweise in einem Lexikon finden würde. Lemmatisierung ist ein spezielles Verfahren der Normalisierung von Wörtern, bei der die verschiedenen Wortformen der Grundform zugeordnet werden. Beispiel: liest wird auf lesen zurückgeführt. |
Lernprozess eines NNs | Beim Training eines neuronalen Netzes erhalten die Eingangsdaten beziehungsweise jedes Neuron ein Anfangsgewicht. Werden die Eingangs-Daten in das Netz gegeben, gewichtet jedes Neuron die Eingangs-Signale mit seinem Gewicht. Das Ergebnis wird an die Neuronen der nächsten →Schicht weitergegeben. Am Output-Layer, also an der Ausgabe-Schicht, wird dann das Gesamtergebnis berechnet. Dieses Ergebnis wird auf Grund der untrainierten Anfangsgewichte in der Regel wenig mit dem bekannten tatsächlichen Ergebnis zu tun haben, es ist also fehlerhaft. Man kann jedoch die Größe des Fehlers berechnen und den Anteil, den jedes Neuron an diesem Fehler hatte. Somit kann man das Gewicht jedes Neurons ein kleines bisschen in die Richtung verändern, die den Fehler minimiert. Nach der Veränderung der Gewichte erfolgt der nächste Durchlauf, eine erneute Messung des Fehlers und eine Anpassung der Gewichte und so weiter. So "lernt" ein neuronales Netz zunehmend besser, von den Eingabedaten auf die bekannten Ausgabedaten zu schließen. |
M
Manosphere (Mannosphäre) | Zusammengesetzt aus den Begriffen man und sphere: Loses Kollektiv aus Blogs und Internetforen, in denen eine frauenfeindliche Weltanschauung propagiert wird. |
Manuelle Annotation | Bei der manuellen →Annotation bzw. Kennzeichnung von Daten werden ergänzende Informationen von einer Person zu den jeweiligen Daten hinzugefügt. Dies kann sehr aufwendig sein, da die Annotationen von einem Menschen durchgeführt werden und die Arbeit sehr kleinteilig werden kann. Die Person, die die Annotation durchführt, nennt man Annotator*in. |
Maschinelles Lernen | Beim Maschinellen Lernen handelt es sich um eine Form der künstlichen Intelligenz. Systeme können durch Maschinelles Lernen von Daten lernen. Hierbei wird ein mathematisches Modell trainiert, das Muster oder Regeln auf Gewichte und Kombinationen abbildet, die von Beispieldaten stammen. Das Modell kann dazu dienen, neue Daten durch Vorhersagen zu kategorisieren. Ein Beispiel für ein Maschinelles Lernverfahren ist der →Entscheidungsbaum oder →Lernprozess eines NNs. |
Meinungsfreiheit | Die Meinungsfreiheit ist in verschiedenen Grundrechtskatalogen verankert. In Deutschland ist sie in Artikel 5 GG festgeschrieben. Demnach hat jeder Mensch das Recht auf Meinungsfreiheit und freie Meinungsäußerung. Dieses Recht schließt das Teilen und Veröffentlichen der eigenen Meinung über jegliche Medien ein. →Zensur ist unzulässig. Die Meinungsfreiheit ist ein Schutzrecht der Menschen gegenüber dem Staat. Somit muss der Staat die Meinungsfreiheit der Menschen achten und gewährleisten. Ihre Grenzen findet die Meinungsfreiheit dann, wenn sie mit anderen, gleichrangigen Rechtsansprüchen kollidiert.
(1) Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt. (2) Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre. (3) Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung. |
Misogynie | Frauenfeindlichkeit, Hass von Männern gegenüber Frauen. |
Monitoring | Systematische Erfassung und Messung von Daten, um Echtzeitinformationen über den Prozess und die Aktivität einer Social-Media-Kampagne bereitzustellen. |
Musteranalyse | Die Musteranalyse ist ein Verfahren des maschinellen Lernens, bei dem Muster beziehungsweise Regelmäßigkeiten aufgespürt werden. Durch die Musteranalyse kann ein Prozess verstanden werden oder es können Vorhersagen für geeignete Merkmale getroffen werden. |
N
Natural Language Processing (NLP) (Maschinelle Sprachverarbeitung) | Maschinelle Sprachverarbeitung ist ein Teilgebiet der Künstlichen Intelligenz und befasst sich damit, wie menschliche Sprache von einem Computer verarbeitet werden kann. Für die maschinelle Sprachverarbeitung werden Methoden aus der Sprachwissenschaft mit Methoden der Informatik und der künstlichen Intelligenz kombiniert. Suchmaschinen wie Google oder Sprachassistenten wie Siri und Alexa basieren auf Methoden der maschinellen Sprachverarbeitung. |
Netzarchitektur, Netztyp | Neuronale Netze können sich voneinander in ihrer Architektur bzw. in ihrem Aufbau unterscheiden. Dabei können unterschiedliche Kriterien relevant sein, z.B. die angewendeten Lernregeln, die Anzahl der →Schichten (Hidden Layers), ob der →Lernprozess überwacht ist (→Überwachtes/Unüberwachtes Lernen) usw. Bekannte Netzarchitekturen sind →Rekurrente Neuronale Netze (RNNs) und →Convolutional Neural Networks (CNNs). |
NetzDG (Netzwerkdurch- setzungsgesetz)
| Verpflichtet Anbieter*innen sozialer Medien, den Nutzenden ein wirksames und transparentes Verfahren zur Übermittlung von Beschwerden über strafbare Inhalte bereitzustellen. Ziel dabei ist es, Hasskriminalität, strafbare Falschnachrichten und andere strafbare Inhalte in sozialen Netzwerken wirksamer zu bekämpfen. Das NetzDG sieht die Einrichtung eines Beschwerdemanagementsystems seitens der Plattformanbieter vor, über das Nutzer*innen strafbare Inhalte melden können. Die betroffenen →Plattformen sind verpflichtet, auf die eingegangenen Meldungen kurzfristig zu reagieren, die Inhalte auf ihre strafrechtliche Relevanz zu prüfen und rechtswidrige Inhalte umgehend zu löschen. So kommen sie ihrer, unter dem NetzDG erteilten, Löschpflicht nach. Der Prozess der Rechtsprüfung ist transparent zu gestalten und die Nutzer*innen sind über den Ausgang ihrer Beschwerde zu informieren. Nutzer*innen wiederum, deren Beiträge von Löschungen unter dem NetzDG betroffen sind, können diese als unrechtmäßig anfechten. Überdies sind jene Plattformen, die unter den Gültigkeitsbereich des NetzDG fallen, verpflichtet, einen halbjährlichen →Transparenzbericht zu veröffentlichen, in dem sie über ihre Handhabung und Umsetzung des Gesetzes informieren. |
N-Gramm | N-Gramme spielen im →Natural Language Processing eine große Rolle. Dabei wird eine bestimmte Anzahl an Zeichen oder Wörtern analysiert. Das N ist hier der Platzhalter für die Anzahl der zu betrachtenden Zeichen oder Wörter. Beispiel: Bigramm für zwei Zeichen oder Wörter, Trigramm für drei Zeichen oder Wörter. Werden einzelne Zeichenfolgen und nicht ganze Wörter analysiert, spricht man auch von Character-Bigram oder Character-Trigram (eng. character = dt. Schriftzeichen). |
Nötigung | Von Nötigung nach Paragraph 240 StGB wird dann gesprochen, wenn eine Person durch die Androhung von Gewalt, Körperverletzung oder Mord zu bestimmten Handlungen gezwungen werden soll. Hierbei ist unerheblich, ob die Nötigung erfolgreich ist. Allein der Versuch ist strafbar. Drohungen können sich gegen die Person selbst, deren Angehörige oder Freund*innen richten. Der Tatbestand der Nötigung wird mit einer Geldstrafe oder einer Freiheitsstrafe von bis zu drei Jahren, oder in besonders schweren Fällen von bis zu fünf Jahren, geahndet. |
Notice-and-take-down | Das Notice-and-take-down-Verfahren ist ein Instrument im Vorgehen gegen rechtswidrige Inhalte auf Internetplattformen, das aus den Selbstregulierungsanstrengungen der Anbieter hervorgegangen ist. Moderator*innen oder Nutzer*innen können potenziell strafbare Inhalte als solche markieren und der Plattformadministration melden. Die Beschwerden werden geprüft und ggf. gemeldete Inhalte entfernt, blockiert oder der/die Urheber*in kontaktiert. Durch das unmittelbare Löschen strafbarer Inhalte kommen die →Plattformen ihrer Löschpflicht nach. |
O
Öffentliche Aufforderung zu Straftaten | Unter dem Tatbestand der öffentlichen Aufforderung zu Straftaten wird nach Paragraph 111 StGB der öffentliche Aufruf zu einer rechtswidrigen Tat verstanden. Hierunter fällt auch das Verbreiten eines solchen Inhalts im Internet. Der Aufruf zu einer Straftat ist unabhängig davon strafbar, ob ihm Folge geleistet wird. Notwendige Bedingung für die Strafverfolgung ist die Konkretisierung des Aufrufs, aus dem Tatort, Tatzeit und Opfer hervorgehen müssen. Die öffentliche Aufforderung zu Straftaten kann mit einer Freiheitsstrafe von bis zu fünf Jahren oder einer Geldstrafe geahndet werden. |
Overblocking (Überblockierung) | Sperrung rechtmäßiger Medieninhalte, beispielsweise durch zu empfindlich eingestellte Filter oder aus Angst vor möglichen Sanktionen. |
Overfitting (Überanpassung) | Wenn ein →Künstliches Neuronales Netz während des Trainings alle bekannten Daten sehr oft gesehen hat, kann es passieren, dass das Künstliche Neuronale Netz diese Daten eher "auswendig lernt", statt ein abstraktes Konzept zu lernen und zu "verstehen". Das Modell hat an diesem Punkt die perfekte Funktion für alle bekannten Daten gefunden, es kann diese Funktion jedoch nicht auf neue Daten anwenden. Dadurch versagt das Modell, wenn neue Daten als →Input eingespeist werden. Dieses Problem wird als Overfitting bezeichnet. |
P
Perzeptron | Das Perzeptron war die erste Art eines →Künstlichen Neuronalen Netzes und stellt zugleich seine einfachste Form und somit die Grundlage eines neuronalen Netzes dar. Man kann sagen, dass ein neuronales Netz ein zusammenhängendes System von Perzeptronen ist. Ein Perzeptron besteht aus einer Eingabe-Schicht (mit einem oder mehreren Neuronen), einer Verarbeitungsschicht mit den Gewichten und der Aktivierungsfunktion sowie der Ausgabe-Schicht, welche ein Ergebnis liefert. |
Plattform | Plattformen sind programmierte, digitale Architekturen, die vielfältige Interaktionen und Transaktionen zwischen Kommunikationsteilnehmer*innen und Anbietern ermöglichen. Aktuell gehören Plattformen zu den prominentesten Nutzungs- und Erscheinungsformen des Internets. Auch soziale Medien zählen zu der übergeordneten Kategorie der Plattformen. Die Gesamtheit aller Plattformen, ihre Interdependenz und Infrastruktur, wird unter dem Begriff des Plattformökosystems zusammengefasst. Das Plattformökosystem der westlichen Welt wird von fünf großen Plattformen, den sogenannten "Big Five" (Alphabet-Google, Apple, Facebook, Amazon und Microsoft) dominiert. Plattformen spielen eine wichtige Rolle für das gesellschaftliche Leben und die digitale Ökonomie. Sie sind heute die vorherrschenden Gatekeeper für die Nutzung des Internets und damit die Teilhabe am digitalen Leben und der digitalen Öffentlichkeit. Viele Plattformen sind auf das Sammeln, Verarbeiten und die Verwertung von Nutzer*innendaten ausgerichtet. |
Polarisierung | Aufspaltung einer Population oder Gruppe in gegensätzliche Positionen. |
Postfaktisch | Beschreibt als Synonym für unsachlich oder gefühlt eine Priorisierung der "gefühlten Wahrheit" anstelle von Fakten in Politik und Gesellschaft. |
Precision (Präzision/Genauigkeit) | Maß für die Korrektheit der Vorhersage eines Systems. Es wird bei der Auswertung von Klassifikationsverfahren angewandt, um zu überprüfen, wie viel Prozent der als positiv eingestuften Daten auch tatsächlich korrekt sind. Dazu werden die →Richtig Positiven durch die Summe aus Richtig Positiven und →Falsch Positiven geteilt. Bei einer Suchmaschine würde beispielsweise der Anteil der relevanten gefundenen Dokumente an der Gesamtmenge der gefundenen Dokumente berechnet werden. |
Propaganda | Systematische Verbreitung politischer oder gesellschaftlicher Inhalte mit dem Ziel, das öffentliche Bewusstsein zu beeinflussen und ein bestimmtes Verhalten hervorzurufen. |
R
Radikalisierung | Prozess, in dem ein Individuum radikale bzw. extreme Einstellungen entwickelt, übernimmt und verinnerlicht. |
Random Forest (Zufallswald) | Ein Random Forest ist ein Klassifikationsverfahren, das aus mehreren →Entscheidungsbäumen besteht, die nicht miteinander in Zusammenhang stehen. Jeder Entscheidungsbaum in einem Random Forest liefert ein eindeutiges Ergebnis zu derselben Klassifikationsaufgabe. Letztendlich wird das Ergebnis ausgewählt, das von den meisten Entscheidungsbäumen ausgegeben wurde. Durch die Vielzahl der Entscheidungsbäume wird die bestmögliche Entscheidung bzw. Vorhersage getroffen. |
Recall (Trefferquote) | Maß für die Trefferquote der Vorhersage eines →Künstlichen Neuronalen Netzes. Parallel zu →Precision wird der Recall bei Klassifikationsverfahren angewandt, um zu überprüfen, wie vollständig die Ergebnisse als korrekt eingestuft wurden. Dadurch wird beispielsweise festgestellt, wie viel Prozent der →Hate Speech in einer Datensammlung unerkannt geblieben ist. Somit werden außer den richtigerweise als positiv eingestuften Daten (→Richtig Positive) auch die nicht als positiv erkannten, also fälschlicherweise negativ eingestuften Daten (→Falsch Negative) in Betracht gezogen. Zur Berechnung werden die Richtig Positiven durch die Summe aus Richtig Positiven und Falsch Negativen geteilt. |
Recht am eigenen Bild | Nach Paragraph 201a StGB hat jeder Mensch das Recht am eigenen Bild. Fotos, auf denen Menschen deutlich zu erkennen sind, dürfen nur unter ihrer Einwilligung veröffentlicht werden. Mitunter bedarf es einer Erlaubnis, um Fotos von Menschen aufzunehmen. Dementsprechend ist es strafbar, Fotos, auf denen Menschen im nicht-öffentlichen Raum oder einzeln zu sehen sind, ohne die Einwilligung der jeweiligen Person, zu verbreiten. Eine Veröffentlichung ohne Zustimmung stellt eine Verletzung der Persönlichkeitsrechte dar, die mit einer Freiheitsstrafe von bis zu zwei Jahren oder einer Geldstrafe geahndet werden kann. Die Verwendung eines bereits veröffentlichten Bildes als Meme ist nicht prinzipiell strafbar, da es oft der zugehörige Text und nicht das Bild als solches ist, der die abgebildete Person diffamiert. |
Recurrent Neural Network (RNN) (Rekurrentes Neuronales Netz) | Eine bestimmte →Netzarchitektur bzw. ein Netztyp. Dieser Netztyp ist durch Rückkopplungen zu Neuronen derselben oder der vorangegangenen →Schicht gekennzeichnet. Das heißt, bei der Ausgabe werden Rückmeldungen an vorangegangene Neuronen gesendet. Die Besonderheit bei RNNs ist, dass des →Inputs schrittweise als Sequenz verarbeitet wird, z.B. bei Texten als eine Sequenz von Wörtern in der Regel von links nach rechts. Bei jedem Verarbeitungsschritt der Sequenz bedingt die Rückkopplung, dass die Gewichte aktualisiert werden, was einen Einfluss auf die Gewichtung der Eingabe der folgenden Sequenzschritte hat. |
Red Pill | Entstammt dem Film Matrix: In Internetforen Selbstzuschreibung von Nutzer*innen, die einen angeblichen Augenblick einer schmerzhaften Erkenntnis erlebt haben, die der Öffentlichkeit verborgen ist; vor allem genutzt von Männerrechtsaktivisten und Rechten ↔ Blue Pill: Abwertende Zuschreibung derer, die weiter in ewiger Täuschung und Illusion der Welt leben (wollen). |
Reporting | Beim Reporting werden potenziell strafbare oder gegen die →Community Standards verstoßende Inhalte von Nutzer*innen, Moderator*innen oder anderen Akteur*innen an die Plattformadministration gemeldet. |
Resilienz | Widerstandsfähigkeit von Individuen oder Gemeinschaften, z.B. gegen extremistische Einflüsse oder Ideologien. |
Richtig Positiv (True Positive) | Um die Fähigkeiten eines →Künstlichen Neuronalen Netzes zu bewerten, werden →Precision (Präzision/Genauigkeit) und →Recall (Trefferquote) der Ergebnisse überprüft. "True Positives" stellen den Teil der Daten dar, der vom Modell korrekt als "positiv", also "wahr", klassifiziert wurde. In Bezug auf Spam-Mails wären dies die korrekt als Spam klassifizierten Mails. |
Richtlinie über den elektronischen Geschäftsverkehr | Die EU-Richtlinie über den elektronischen Geschäftsverkehr von 2000 setzt den rechtlichen Rahmen für spezifische Dienste der Informationsgesellschaft, insbesondere bezogen auf den elektronischen Geschäftsverkehr. Sie sieht unter anderem vor, dass →Plattformen und andere →Internetintermediäre nicht für die Inhalte, die ihre Nutzer*innen hochladen und teilen, haftbar sind. Die Haftungsbefreiung gilt, wenn die Anbieter Inhalte, die sich als rechtswidrig erweisen, umgehend entfernen. Die Entwicklung des →Notice-and-take-down-Verfahrens ist auf diese Richtlinie zurückzuführen. |
S
Schicht (Layer) | Eine Schicht (Layer) fasst eine Anzahl von Neuronen zusammen, die innerhalb des →Künstlichen Neuronalen Netzes den gleichen →Input und die gleiche Aktivierungsfunktion haben. Schichten haben eine hierarchische Anordnung, die die Abfolge der Schichten festlegt. Ein Neuronales Netz hat immer eine Eingabe- und eine Ausgabe-Schicht. Dazwischen können beliebig viele versteckte Schichten liegen. |
Schweigespirale | Das Konzept der Schweigespirale geht auf die Kommunikationswissenschaftlerin Elisabeth Noelle-Neumann (1916-2010) zurück und stellt einen Erklärungsansatz für die Entstehung und Verbreitung öffentlicher Meinung dar. Demnach würden Menschen, die sich mit ihrer Meinung in der Mehrheit fühlen, eher dazu tendieren, diese öffentlich zu äußern. Personen hingegen, die sich in ihrer Meinung in der Minderheit wähnen, würden sich mit ihren Einstellungen zurückhalten und schweigen. Dies gelte insbesondere für wertgeladene, kontroverse Themen. Aus diesem Missverhältnis würde sich eine Dynamik entwickeln, nach der die gegenläufige Meinung immer seltener öffentlich geäußert wird. |
Selbstregulierung | Selbstregulierung ist ein Typ gesellschaftlicher Regulierung. Hierbei setzen zivilgesellschaftliche und privatwirtschaftliche Einrichtungen ihrerseits Regeln, um der Verletzung gesellschaftlicher Normen vorzubeugen. Sie sind damit auch für die Umsetzung verantwortlich und für wirksame Sanktionsmaßnahmen im Fall von Verstößen. Über Selbstregulierung kann staatlichen Regulierungs- oder →Ko-Regulierungsschritten mitunter zuvorgekommen werden. |
Sexismus | Diskriminierung aufgrund des Geschlechts. |
Sockpuppet (Sockenpuppe) | Zusätzliches Nutzerkonto in sozialen Netzwerken, das ähnlich wie ein Pseudonym genutzt werden kann. Eine Einzelperson betreibt dabei oft mehrere Sockenpuppen-Accounts, um die eigene Privatsphäre zu schützen oder eine Haltung zu verstärken (→Amplifier Accounts). |
Spoof(ing)
| →Hoax, Täuschung oder Parodie; oft: Vortäuschung einer vertrauenswürdigen Identität, um in Computer oder Netzwerke einzudringen. Oder: Täuschung einer Einzelperson, eines Computers oder eines Netzwerks durch gefälschte vertrauenswürdige Identität ("Wolf im Schafspelz"). Ziel ist es beispielsweise, Daten zu stehlen, Sicherheitssysteme zu umgehen, schädliche Software zu verbreiten. |
Staatliche Regulierung | Die staatliche Regulierung ist ein zentrales Element staatlicher Steuerung, dessen Ziel es ist, das Verhalten gesellschaftlicher Akteure durch ordnungspolitische Eingriffe zu lenken. Über Eingriffe dieser Art versucht der Staat insbesondere das ökonomische Marktgeschehen zu ordnen und ein drohendes Marktversagen zu korrigieren oder zu vermeiden. Weitere Felder staatlicher Regulierung sind Ökologie und Innovation. In der Praxis zeigt staatliche Regulierung sich in direkten Eingriffen des Staates in die Marktabläufe. Durch Vorschriften und Gesetzgebungen, die dem Allgemeinwohl dienen sollen, beeinflusst der Staat die Handlungsmöglichkeiten von Unternehmen. Diesem Regulierungsansatz zu Grunde liegt die Vorstellung, dass gesellschaftliche Vorgänge durch politisch-administrative Maßnahmen gesteuert werden können und sollen. |
Swarming | Ursprünglich militärische Taktik: Überhäufung eines Accounts mit beleidigenden, drohenden oder belästigenden Inhalten, um Nutzer*innen von einer Konversation abzuhalten. Auch im Rahmen von Gegenredekampagnen wird auf Swarming zurückgegriffen, um Opfer von →Hate Speech zu unterstützen. |
T
Testphase eines NNs | In der Testphase werden im Gegensatz zur →Trainingsphase keine Gewichte verändert. Stattdessen wird hier auf Grundlage der bereits modifizierten Gewichte aus der Trainingsphase untersucht, wie gut das trainierte automatische System die Aufgabe gelernt hat. Dazu präsentiert man den Inputneuronen Reize und prüft, welchen Output das neuronale Netz berechnet. Dabei werden dem System entweder die Ausgangsreize (also erneut das Trainingsmaterial) oder neue Reize präsentiert. Bei der Präsentation der Ausgangsreize kann festgestellt werden, ob das System das Trainingsmaterial erfasst hat. Werden neue Reize präsentiert, kann überprüft werden, ob das System über die zu lernenden Reize hinaus in der Lage ist, Aufgaben zu lösen und ob somit eine Generalisierung stattfindet, das Gelernte also auf neue Reize übertragen wird. |
Trainingsphase | Das →Künstliche Neuronale Netz "lernt" anhand der gesammelten Daten bzw. des vorgegebenen Lernmaterials (→Lernprozess eines NNs). |
Transparenzbericht | Soziale Netzwerke, die unter den Gültigkeitsbereich des →NetzDG fallen, sind verpflichtet einen halbjährlichen Transparenzbericht zu veröffentlichen, in dem sie über ihren Umgang mit und ihre Umsetzung von den Richtlinien des Gesetzes informieren. Hier zählen sie beispielsweise auf, wie viele NetzDG-Beschwerden sie erreicht haben, wie viele Inhalte betroffen waren und wie viele dieser Inhalte im Anschluss an die rechtliche Prüfung gelöscht wurden. |
Troll | Person, die Nutzer*innen sozialer Netzwerke bewusst (emotional) provoziert. |
Trusted Flagger | Das Trusted-Flagger-Programm ist ein Instrument sozialer Netzwerke, etwa im Rahmen des →Code of Conduct, zur Optimierung des Meldeprozesses bei rechtswidrigen Inhalten. Regierungsbehörden, zivilgesellschaftlichen Akteuren und Privatpersonen ist es möglich, Trusted Flagger zu werden. So erlangen sie den Status als vertrauenswürdige Hinweisgeber*innen, deren Meldungen vorrangig behandelt werden. In Deutschland sind neben dem Bundeskriminalamt auch die Landeskriminalämter am Trusted-Flagger-Programm beteiligt. |
U
Überwachtes Lernen | Beim Überwachten Lernen lernt das System ein Modell aus vorannotierten (→Annotation) Daten. Das System versucht, die gegebenen Daten nachzumodellieren, und lernt dabei, Muster zu erkennen. Es wird also im Gegensatz zum →Unüberwachten Lernen nach einer bestimmten Zielvariable in den Rohdaten (ungeprüfte und nicht bearbeitete Daten) gesucht. |
Üble Nachrede | Die Verbreitung einer nicht als wahr bewiesenen, verächtlichen und herabwürdigenden Behauptung über eine andere Person ist strafbar. Der zugehörige Tatbestand der üblen Nachrede ist unter Paragraph 186 StGB zu finden. Dies gilt auch, wenn eine falsche Behauptung lediglich weitergegeben, beispielsweise ein Post geteilt wird. Im Gegensatz zur →Verleumdung werden in diesem Fall keine absichtlichen Lügen verbreitet. Der/die Täter*in hält die Behauptung für wahr. Üble Nachrede kann mit einer Freiheitsstrafe von bis zu einem Jahr oder einer Geldstrafe geahndet werden. Das Strafmaß fällt höher aus, wenn die Behauptung öffentlich gemacht wird. |
Underblocking (Unterblockierung) | Fehlende Sperrung unrechtmäßiger Medieninhalte, beispielsweise durch zu unempfindlich eingestellte Filter. |
Underfitting (Unteranpassung) | Das trainierte →Künstliche Neuronale Netz macht schlechte Vorhersagen, da es die Komplexität der Trainingsdaten nicht verstanden hat. Das Modell wurde sozusagen nicht ausreichend trainiert. Für das Underfitting kann es viele Gründe geben. Zum Beispiel können falsche Eigenschaften (features) für das Training ausgewählt worden sein oder der Trainingsprozess wurde nicht oft genug wiederholt. Auch eine zu geringe Anzahl an →Schichten (Hidden Layers) kann der Grund sein. |
Unüberwachtes Lernen | Beim Unüberwachten Lernen soll das →Künstliche Neuronale Netz nach beliebigen Mustern in den Daten suchen. Ziel ist, dass dadurch Kategorien entstehen, die dem Menschen aufgrund der Fülle an Daten sonst verborgen bleiben würden. Es können auch Zusammenhänge unter den Daten erkannt werden. Die vorgegebenen Daten sind hier, im Gegensatz zum →Überwachten Lernen, nicht vorannotiert. |
Uploadfilter | Durch die Implementierung eines Uploadfilters werden Inhalte, bevor sie auf einer →Plattform veröffentlicht werden, also beim Hochladen (upload), auf ihre Konformität mit bestehenden Rechtsnormen gefiltert und geprüft. Der Einsatz eines Uploadfilters kann verschiedene Regulationsziele verfolgen. Weit verbreitete Anwendung findet er insbesondere im Schutz des Urheberrechts. Ein weiteres mögliches Einsatzgebiet ist die Regulierung von strafbarer →Hate Speech auf Internetplattformen. |
User-generated Content | Jegliche Inhalte, darunter Textbeiträge, Fotos, Videos und Audiodateien, die von den Nutzer*innen selbst geschaffen und anschließend auf →Plattformen geteilt werden. |
V
Verleumdung | Die Straftat der Verleumdung nach Paragraph 187 StGB begeht, wer unwahre Behauptungen, also eine Lüge, über eine andere Person, mit dem Ziel diese herabzuwürdigen oder zu diskreditieren, verbreitet. Hierbei geht es um bewusst falsche Behauptungen, nicht um Übertreibungen oder Meinungen. Auch das Weitergeben und Teilen einer verleumderischen Lüge ist strafbar. Die Tat kann mit einer Geldstrafe oder einer Freiheitsstrafe von bis zu zwei Jahren geahndet werden. Erfolgt die Verleumdung in der Öffentlichkeit, ist das Strafmaß mit einer Freiheitsstrafe von bis zu fünf Jahren noch höher. |
Volksverhetzung | Unter den Tatbestand der Volksverhetzung fällt nach Paragraph 130 StGB der Aufruf zu Hass und Gewalt gegen Einzelpersonen oder Personengruppen auf Grund ihrer Ethnizität, Nationalität oder Religionszugehörigkeit. Hetze dieser Art stellt einen Angriff auf die Menschenwürde dar. Dies gilt ebenfalls für die Weitergabe und das Teilen volksverhetzender Inhalte. Auch bei der Leugnung, Verharmlosung oder Billigung des Holocaust wird von Volksverhetzung gesprochen. Geahndet wird diese Straftat mit einer Geld- oder Freiheitsstrafe von bis zu fünf Jahren. Die Strafe fällt insbesondere dann hoch aus, wenn die Tat in der Öffentlichkeit begangen wird. |
W
Wehrhafte Demokratie | Der Begriff der wehrhaften oder auch streitbaren Demokratie wurde vom Bundesverfassungsgericht geprägt und verweist auf die Bereitschaft des Staates, sich gegen die Gefahren für und Feind*innen der freiheitlichen Demokratie zur Wehr zu setzen. |
Whataboutism | Versuch, die gegensätzliche Position durch das Aufbringen eines anderen Themas zu entkräften. Im Diskurs über sexuelle Übergriffe gegenüber Frauen wird beispielsweise häufig sexuelle Gewalt an Männern entgegengestellt. |
Word Embedding (Worteinbettung) | Word Embeddings sind komprimierte Bedeutungsrepräsentationen in Form von Wortvektoren. Ein Wortvektor ist die numerische Repräsentation eines Wortes, also die Darstellung eines Wortes in Zahlen. Word Embeddings werden häufig bei der Verarbeitung von Sprachdaten als Eingabemerkmale für →Künstliche Neuronale Netze verwendet. Diese Wortvektoren werden üblicherweise nach dem Prinzip der →Distributionellen Semantik auf einer großen Menge an Sprachdaten durch ein Neuronales Netzwerk vortrainiert. |
Z
Zensur | Von Zensur wird gesprochen, wenn der Staat die Medien und deren Berichterstattung kontrolliert. In Art. 5 (1) GG heißt es, dass in Deutschland keine Zensur stattfindet. |
A
Alternative Fakten | Begriff zur Beschönigung von Falschnachrichten, den Kellyanne Conway, ehemalige Beraterin des US-Präsidenten Trump, 2017 in einer Rede benutzte. |
Amplifier Accounts (Verstärkeraccounts) | Sehr aktive, anonyme, produktive Nutzerkonten bei Twitter und Facebook, die genutzt werden, um einen angeblichen Konsens zu einem Thema zu schaffen, z.B. durch bestätigende Kommentare. |
Apophänie | Begriff aus der Psychologie, der das Phänomen beschreibt, scheinbare bedeutungsvolle Muster und Beziehungen in zufälligen, bedeutungslosen Einzelheiten der Umwelt wahrzunehmen. Das Phänomen spielt auch in Verschwörungstheorien eine Rolle. |
Awareness | Ausmaß, in dem die Inhalte von der Zielgruppe gesehen werden und das anhand unterschiedlicher Metriken wie Impressionen, Reichweite, Klicks u. a. gemessen wird. |
B
Boomer | Hämische Bezeichnung für Personen, die in Zeiten steigender Geburtenraten nach dem Zweiten Weltkrieg geboren wurden. Die Phrase Ok, Boomer wertet Aussagen dieser Personen in Generationenkonflikten ab. |
Bot
| Programm, das (nahezu) automatisiert Aufgaben erledigt. Es veröffentlicht Beiträge, Antworten auf Anfragen oder Kommentare in sozialen Medien und wird zur Informationsverbreitung oder gezielten Meinungsbeeinflussung genutzt. |
Botnet(z) | Gruppe automatisierter Schadprogramme. |
C
Clickbait
| "Ködern" von Klicks: Versuch, durch reißerische Phrasen oder Überschriften zum Klicken auf einen Link zu verleiten. Clickbait wird eingesetzt, um durch höhere Klickzahlen mehr Geld zu verdienen. |
Cybermobbing
| Schikanieren und/oder Diffamieren (Beleidigen, Bedrohen, Bloßstellen oder Belästigen) von Personen über das Internet. |
D
Dangerous Speech (Gefährliche Sprache) | Kommunikative Akte, die das Risiko erhöhen, dass die Rezipient*innen gegenüber Angehörigen einer Gruppe gewalttätig werden (Geflüchtete, Homosexuelle, Frauen usw.). |
Debunking | Missbilligung oder Enthüllung einer Forderung, Behauptung oder einer Stimmung als falsch, übertrieben oder prätentiös. |
Deepfakes | Zusammengesetzt aus den Begriffen deep learning und fake, beschreibt die Herstellung realistisch wirkender Medieninhalte mithilfe künstlicher Intelligenz. Visuelles Material wird auf andere Bilder oder Videos übertragen (z.B. Faceswapping). |
Desinformation | Bewusst falsche Information, die zur Meinungsbeeinflussung eingesetzt wird. |
Dog-Whistling (Hundepfeifen) | Nutzung einer kodierten Sprache, die allgemein verstanden wird und gleichzeitig eine versteckte Bedeutung in Aussagen für eine spezifischere Zielgruppe beinhaltet. Hundepfeifen-Politik wird genutzt, um verfängliche Äußerungen nicht offen artikulieren zu müssen. |
Doxing | Internetbasiertes Zusammentragen und anschließendes Veröffentlichen personenbezogener Daten einer Einzelperson oder einer Organisation. |
E
Echokammer | Hypothetischer metaphorischer Raum, in dem konsensuale Aussagen verstärkt und Störgeräusche (wie anders lautende Meinungen) geschluckt werden. |
Enthemmungseffekt | Verlust an Selbstbeherrschung in der schriftlichen Kommunikation im Internet, bedingt durch Kommunikationsbedingungen wie schützende Anonymität, fehlendes soziales Feedback und Asynchronität. |
Extremismus | Extreme, radikale politische Haltung jenseits der freiheitlich demokratischen Grundordnung (z.B. Nationalismus, Antisemitismus, Islamismus). |
F
Fake News | Falschnachrichten, die im Internet und in anderen Medien verbreitet werden, meist, um politische Meinungen zu beeinflussen. |
Filterblase | Intellektuelle Isolation von Internetnutzenden durch Algorithmen von Internetseiten, die vorauszusagen versuchen, welche Informationen die Nutzenden auffinden möchten. Informationen, die dem Informationsverhalten der Nutzenden nicht entsprechen, werden ausgeblendet. Dadurch können gegensätzliche Haltungen und Perspektiven entstehen und sich verhärten. |
Flaming | Form des Trollings (→Troll): Veröffentlichung von Kommentaren, die bewusst provozieren. |
Framing | Verschiedene Formulierungen als verschiedene "Verpackungen" einer Botschaft, die bei gleichem Inhalt das Verhalten der Empfänger*innen unterschiedlich beeinflussen können. |
G
Gaslighting | Desorientierung, Manipulation und Verunsicherung von Personen, die die Fähigkeit verlieren, richtige und falsche Informationen voneinander zu unterscheiden und gleichzeitig eine Abhängigkeit vom "Gaslighter" entwickeln. |
Gegennarrativ/ Gegenrede | Kommentare, Bilder oder Videos, die falschen oder extremistischen Informationen gegenübergestellt werden, um Mediennutzende gegen Extremist*innen und Falschinformationen zu rüsten und z.B. diskriminierte Gruppen oder Ziele von →Hate Speech zu schützen. |
Gendertrolling | Form des Trollings (→Troll): Frauen* werden durch Sexualisierung und sexistische Beleidigungen provoziert. |
Grooming | Gezielte Kontaktaufnahme und Aufbau von Vertrauen über einen längeren Zeitraum, um Straftaten an der Zielperson zu verüben oder diese zu Straftaten zu verleiten. |
H
Hate Speech (Hassrede) | Äußerungen, die Individuen oder Menschengruppen aufgrund ihrer Ethnie, Religion, sexueller Orientierung, Behinderung oder aufgrund anderer Eigenschaften diffamieren. |
Hoax | Täuschung durch Falschmeldungen. |
I
Incel | Zusammengesetzt aus den Begriffen involuntary und celibate: Selbstbezeichnung einer entstandenen Internet-Subkultur von heterosexuellen Männern, denen sexuelle Kontakte aufgrund mangelnder Attraktivität verwehrt bleiben und die die Schuld bei Frauen und attraktiven Konkurrenten suchen. Die Gruppierung wird mit Frauenfeindlichkeit, aber u.a. auch mit Rassismus in Verbindung gebracht. |
M
Manosphere (Mannosphäre)
| Zusammengesetzt aus den Begriffen man und sphere: Loses Kollektiv aus Blogs und Internetforen, in denen eine frauenfeindliche Weltanschauung propagiert wird. |
Misogynie | Frauenfeindlichkeit, Hass von Männern gegenüber Frauen. |
Monitoring | Systematische Erfassung und Messung von Daten, um Echtzeitinformationen über den Prozess und die Aktivität einer Social-Media-Kampagne bereitzustellen. |
O
Overblocking | Sperrung rechtmäßiger Medieninhalte, beispielsweise durch zu empfindlich eingestellte Filter oder aus Angst vor möglichen Sanktionen. |
P
Polarisierung | Aufspaltung einer Population oder Gruppe in gegensätzliche Positionen. |
Postfaktisch | Beschreibt als Synonym für unsachlich oder gefühlt eine Priorisierung der "gefühlten Wahrheit" anstelle von Fakten in Politik und Gesellschaft. |
Propaganda | Systematische Verbreitung politischer oder gesellschaftlicher Inhalte mit dem Ziel, das öffentliche Bewusstsein zu beeinflussen und ein bestimmtes Verhalten hervorzurufen. |
R
Radikalisierung | Prozess, in dem ein Individuum radikale bzw. extreme Einstellungen entwickelt, übernimmt und verinnerlicht. |
Red Pill | Entstammt dem Film Matrix: In Internetforen Selbstzuschreibung von Nutzer*innen, die einen angeblichen Augenblick einer schmerzhaften Erkenntnis erlebt haben, die der Öffentlichkeit verborgen ist; vor allem genutzt von Männerrechtsaktivisten und Rechten ↔ Blue Pill: Abwertende Zuschreibung derer, die weiter in ewiger Täuschung und Illusion der Welt leben (wollen). |
Resilienz | Widerstandsfähigkeit von Individuen oder Gemeinschaften, z.B. gegen extremistische Einflüsse oder Ideologien. |
S
Schweigespirale | Das Konzept der Schweigespirale geht auf die Kommunikationswissenschaftlerin Elisabeth Noelle-Neumann (1916-2010) zurück und stellt einen Erklärungsansatz für die Entstehung und Verbreitung öffentlicher Meinung dar. Demnach würden Menschen, die sich mit ihrer Meinung in der Mehrheit fühlen, eher dazu tendieren, diese öffentlich zu äußern. Personen hingegen, die sich in ihrer Meinung in der Minderheit wähnen, würden sich mit ihren Einstellungen zurückhalten und schweigen. Dies gelte insbesondere für wertgeladene, kontroverse Themen. Aus diesem Missverhältnis würde sich eine Dynamik entwickeln, nach der die gegenläufige Meinung immer seltener öffentlich geäußert wird. |
Sexismus | Diskriminierung aufgrund des Geschlechts. |
Sockpuppet (Sockenpuppe)
| Zusätzliches Nutzerkonto in sozialen Netzwerken, das ähnlich wie ein Pseudonym genutzt werden kann. Eine Einzelperson betreibt dabei oft mehrere Sockenpuppen-Accounts, um die eigene Privatsphäre zu schützen oder eine Haltung zu verstärken (→Amplifier Accounts). |
Spoof(ing)
| →Hoax, Täuschung oder Parodie; oft: Vortäuschung einer vertrauenswürdigen Identität, um in Computer oder Netzwerke einzudringen. Oder: Täuschung einer Einzelperson, eines Computers oder eines Netzwerks durch gefälschte vertrauenswürdige Identität ("Wolf im Schafspelz"). Ziel ist es beispielsweise, Daten zu stehlen, Sicherheitssysteme zu umgehen, schädliche Software zu verbreiten. |
Swarming | Ursprünglich militärische Taktik: Überhäufung eines Accounts mit beleidigenden, drohenden oder belästigenden Inhalten, um Nutzer*innen von einer Konversation abzuhalten. Auch im Rahmen von Gegenredekampagnen wird auf Swarming zurückgegriffen, um Opfer von →Hate Speech zu unterstützen. |
T
Troll | Person, die Nutzer*innen sozialer Netzwerke bewusst (emotional) provoziert. |
U
Underblocking | Fehlende Sperrung unrechtmäßiger Medieninhalte, beispielsweise durch zu unempfindlich eingestellte Filter. |
W
Whataboutism | Versuch, die gegensätzliche Position durch das Aufbringen eines anderen Themas zu entkräften. Im Diskurs über sexuelle Übergriffe gegenüber Frauen wird beispielsweise häufig sexuelle Gewalt an Männern entgegengestellt. |
Z
Zensur | Institutionelle oder staatliche Überprüfung und Kontrolle von Inhalten. |
A
Algorithmus | Eine nachvollziehbare, eindeutige Beschreibung einer Folge von Aktionen zur Lösung eines (zumeist mathematischen) Problems. Es handelt sich also um eine Anleitung zur Problemlösung. Sie wird in einzelnen Schritten durchgeführt und kann wiederholt werden. Jedes Computerprogramm ist die Durchführung/Ausführung eines Algorithmus beziehungsweise von Algorithmen. |
Annotation (Etikettierung) | Bei einer Annotation, auch Etikettierung genannt, werden zusätzliche Informationen zu den Daten, die analysiert und weiterverarbeitet werden sollen, hinzugefügt. Die Daten werden also gekennzeichnet. Diese Informationen sind eine Hilfe für den Computer und den Menschen bei der weiteren Verarbeitung der Daten. Für den Menschen können Annotationen hilfreich für das Verständnis und die Gliederung von Informationen sein. Ohne die Annotationen können keine Algorithmen des maschinellen Lernens verwendet werden, da sie mithilfe von annotierten Daten lernen. Bezogen auf die automatische Erkennung von Hasskommentaren könnte die Annotation von Beiträgen in sozialen Netzwerken beispielsweise mit einem der Werte "Beleidigung", "Hasskommentar", "Vulgär" oder "Normaler Beitrag" erfolgen. |
Auswahl von Merkmalen (Feature Selection) | Auswahl der Merkmale von Eingabedaten. Bezogen auf ein →Künstliches Neuronales Netz oder ein →Maschinelles Lernverfahren allgemein muss im Vorfeld überlegt werden, welche Eigenschaften relevant sind, um ein gutes Ergebnis in Form einer korrekten Vorhersage zu erhalten. Diese Merkmale gehen als Eingabevariablen in neuronale Netzwerke ein. Eingabevariablen sind also die Grundlage für ein gutes Ergebnis. Bei automatischer Hate-Speech-Erkennung werden beispielsweise sprachliche Eigenschaften von Hasskommentaren ausgewählt. Deshalb ist es relevant, sich zu überlegen, welche Eigenschaften Hasskommentare aufweisen (könnten). |
Automatische Annotation | Eine →Annotation/Etikettierung mit einem →Algorithmus bzw. Computerprogramm gilt als automatisch. Da eine →Manuelle Annotation sehr aufwändig sein kann, sind Verfahren zur Automatisierung oft sinnvoll. |
C
Convolutional Neural Network (CNN) (Faltendes Neuronales Netz) | Eine bestimmte →Netzarchitektur eines neuronalen Netzwerkes. Diese Netzarchitektur wird besonders zur Bilderkennung und für Aufgaben der maschinellen Sprachverarbeitung (→Natural Language Processing) verwendet. Ein CNN verarbeitet den →Input (z.B. ein Bild) nicht als Ganzes, sondern einen kleinen Bereich nach dem anderen. Das Convolutional Neural Network kann die wichtigsten Informationen der Eingabe herausfiltern, was den nachfolgenden maschinellen →Lernprozess beschleunigt. |
D
Deep Learning (Tiefes Lernen) | Verfahren des →Maschinellen Lernens, bei dem ein neuronales Netz viele →Schichten zwischen der Eingabe-Schicht und der Ausgabe-Schicht besitzt. In die Eingabe-Schicht werden die relevanten Merkmale (Variablen) eingespeist, während die Ausgabe-Schicht das Ergebnis ausgibt. Befinden sich zwischen →Input (Eingabe) und Ausgabe mindestens drei Zwischenschichten, so spricht man von Deep Learning. Die Zwischenschichten werden Hidden Layers (versteckte Schichten) genannt. Beim Deep Learning werden riesige Datenmengen benötigt. Theoretische Modelle des Deep Learning gibt es schon seit den 1950er-Jahren. Diese Verfahren benötigen allerdings sehr viel Rechenleistung, weshalb sie erst seit wenigen Jahren tatsächlich praktisch eingesetzt werden können. →Deep Learning Modelle können aus Strukturen wie →CNNs oder →RNNs bestehen. |
Distributionelle Semantik | Bei dieser Semantiktheorie (Semantik = Bedeutungslehre) spielt der Kontext, also der umgebende Text von Wörtern, eine große Rolle. Es wird untersucht, welche Wörter in ähnlichen Zusammenhängen auftreten. Kontexte von Vorkommen im Sprachgebrauch geben Rückschlüsse auf die Merkmale von Wörtern. Wörter haben eine ähnliche Bedeutung (d.h. viele ähnliche Merkmale), wenn sie mit den gleichen Kontextpartnern und in ähnlichen Zusammenhängen vorkommen. |
Domain adaptation (Domänenanpassung) | Ein Verfahren, bei dem ein automatisches System, das für eine bestimmte Anwendung trainiert wurde, auf eine andere, jedoch sehr ähnliche Anwendung angepasst wird. Ein Beispiel ist die automatische Detektion von Spam-Mails: Ein Modell wird auf einen bestimmten Mail-Nutzer trainiert und dann bei einem anderen Mail-Nutzer angewandt, der andersartige Spam-Mails erhält. |
E
Entscheidungsbaum (Decision Tree) | Ein Entscheidungsbaum (auch: Decision Tree) bildet ein Regelwerk als eine Reihe von Entscheidungen in einer Baumstruktur ab. Die Entscheidungswege werden durch die Äste des Baumes dargestellt. Die Struktur eines Entscheidungsbaums ist im Vergleich zu anderen Machine-Learning-Verfahren wie →Künstliche Neuronale Netze wesentlich simpler. Es wird überprüft, ob eine bestimmte Eigenschaft bzw. ein Merkmal vorhanden ist. Jede Frage bzw. Entscheidung ist also klar mit ja oder nein beantwortbar. Je nach Entscheidung gelangt man zu einem weiteren Zweig, bei dem eine weitere Eigenschaft bzw. ein Merkmal geprüft wird, bis man bei einem Ergebnis angelangt. |
F
F1-score | Statistisches Maß für die Leistungsfähigkeit eines Systems bei einem Anwendungstest. Gewichteter Mittelwert (harmonisches Mittel) aus der Genauigkeit (→Precision) eines automatischen Systems und dessen Trefferquote (→Recall). Ein hoher F1-score ist ein Zeichen für ein gut funktionierendes Modell. |
Falsch Positiv (False Positive) | "False Positives" stellen den Teil der Daten dar, der fälschlicherweise als "positiv" klassifiziert wurde (→Precision, →Recall). Bei der automatischen Erkennung von Spam-Mails würde das heißen, dass eine Mail im Spamordner landet, obwohl es sich eigentlich nicht um eine Spam-Mail handelt. |
Faltende Schicht (Convolutional Layer) | Faltende Schichten gibt es in →Convolutional Neural Networks. In →CNNs wird nicht mit Vektoren (wie bei anderen neuronalen Netzen üblich), sondern mit Matrizen gerechnet. Ein neuronales Netz besteht aus mehreren →Schichten. In dieser Schicht wird ein Filter auf die einzelnen Matrizen angewandt, der die einzelnen Bereiche der Matrix nochmals genauer analysiert. Der Filter hat eine festgelegte Größe und scannt den →Input der Matrix schrittweise. Durch die Faltenden Schichten kann die Größe der Ergebnismatrix verkleinert werden. Eine Faltende Schicht hat immer eine Ergebnismatrix als Ausgabe. Diese wird dann von einer weiteren Schicht verarbeitet usw. Bei der Bildverarbeitung dienen die Filter dazu, ortsunabhängig Strukturen in den Input-Daten zu erkennen. |
I
Input (Eingabe) | Der Input (die Eingabe), den ein Neuron von einer anderen Einheit empfängt, entspricht dem Output (Aktivitätslevel bzw. Ausgabe) der vorgeschalteten sendenden Einheit. Das Gewicht zwischen den beiden Einheiten wird auf den Input angewandt. Je stärker das Aktivitätslevel der sendenden Einheit und je höher das Gewicht zwischen den Einheiten, desto größer ist der Einfluss (Input) auf die empfangende Einheit. Der Input ist also die Information, die von einem Neuron aufgenommen wird. |
K
Künstliches Neuronales Netz | Der Gedanke hinter Künstlichen Neuronalen Netzen ist das Simulieren der Funktionsweise des Lernens in biologischen Organismen. Auch dort spricht man von neuronalen Netzen. Im menschlichen Nervensystem gibt es Neuronen genannte Zellen (Nervenzellen), die durch verschiedene Nervenzellfortsätze (Axonen und Dendriten) miteinander verknüpft sind. Die Verknüpfungen werden Synapsen genannt, deren Verbundstärke sich je nach äußerlichem Einfluss ändert. Die Änderung der Stärke der Verbindung entspricht dem →Lernprozess. Analog dazu existieren in Künstlichen Neuronalen Netzen Berechnungseinheiten, die Neuronen genannt werden. Diese Neuronen sind mit Gewichten versehen und über diese Gewichte miteinander verbunden. Die Gewichte entsprechen den synaptischen Verbindungen und der Lernprozess entspricht in diesem Fall einer Gewichtsveränderung. Das Gewicht beeinflusst also die (mathematische) Funktion, die auf das Neuron wirkt. In einem biologischen Organismus wirken externe Reize auf die synaptischen Verbindungen ein. Diesen Reizen entsprechen in einem neuronalen Netz die Trainingsdaten. Es werden paarweise Beispiele an Eingabe- und Ausgabe-Daten genommen. Durch das Training werden bestimmte Kanäle stärker frequentiert und ausgebaut. |
L
Lemmatisierung | Das Lemma ist die Grundform eines Wortes, also so, wie man es beispielsweise in einem Lexikon finden würde. Lemmatisierung ist ein spezielles Verfahren der Normalisierung von Wörtern, bei der die verschiedenen Wortformen der Grundform zugeordnet werden. Beispiel: liest wird auf lesen zurückgeführt. |
Lernprozess eines NNs | Beim Training eines neuronalen Netzes erhalten die Eingangsdaten beziehungsweise jedes Neuron ein Anfangsgewicht. Werden die Eingangs-Daten in das Netz gegeben, gewichtet jedes Neuron die Eingangs-Signale mit seinem Gewicht. Das Ergebnis wird an die Neuronen der nächsten →Schicht weitergegeben. Am Output-Layer, also an der Ausgabe-Schicht, wird dann das Gesamtergebnis berechnet. Dieses Ergebnis wird auf Grund der untrainierten Anfangsgewichte in der Regel wenig mit dem bekannten tatsächlichen Ergebnis zu tun haben, es ist also fehlerhaft. Man kann jedoch die Größe des Fehlers berechnen und den Anteil, den jedes Neuron an diesem Fehler hatte. Somit kann man das Gewicht jedes Neurons ein kleines bisschen in die Richtung verändern, die den Fehler minimiert. Nach der Veränderung der Gewichte erfolgt der nächste Durchlauf, eine erneute Messung des Fehlers und eine Anpassung der Gewichte und so weiter. So "lernt" ein neuronales Netz zunehmend besser, von den Eingabedaten auf die bekannten Ausgabedaten zu schließen. |
M
Manuelle Annotation | Bei der manuellen →Annotation bzw. Kennzeichnung von Daten werden ergänzende Informationen von einer Person zu den jeweiligen Daten hinzugefügt. Dies kann sehr aufwendig sein, da die Annotationen von einem Menschen durchgeführt werden und die Arbeit sehr kleinteilig werden kann. Die Person, die die Annotation durchführt, nennt man Annotator*in. |
Maschinelles Lernen | Beim Maschinellen Lernen handelt es sich um eine Form der künstlichen Intelligenz. Systeme können durch Maschinelles Lernen von Daten lernen. Hierbei wird ein mathematisches Modell trainiert, das Muster oder Regeln auf Gewichte und Kombinationen abbildet, die von Beispieldaten stammen. Das Modell kann dazu dienen, neue Daten durch Vorhersagen zu kategorisieren. Ein Beispiel für ein Maschinelles Lernverfahren ist der →Entscheidungsbaum oder →Lernprozess eines NNs. |
Musteranalyse | Die Musteranalyse ist ein Verfahren des maschinellen Lernens, bei dem Muster beziehungsweise Regelmäßigkeiten aufgespürt werden. Durch die Musteranalyse kann ein Prozess verstanden werden oder es können Vorhersagen für geeignete Merkmale getroffen werden. |
N
Natural Language Processing (NLP) (Maschinelle Sprachverarbeitung) | Maschinelle Sprachverarbeitung ist ein Teilgebiet der Künstlichen Intelligenz und befasst sich damit, wie menschliche Sprache von einem Computer verarbeitet werden kann. Für die maschinelle Sprachverarbeitung werden Methoden aus der Sprachwissenschaft mit Methoden der Informatik und der künstlichen Intelligenz kombiniert. Suchmaschinen wie Google oder Sprachassistenten wie Siri und Alexa basieren auf Methoden der maschinellen Sprachverarbeitung. |
Netzarchitektur, Netztyp | Neuronale Netze können sich voneinander in ihrer Architektur bzw. in ihrem Aufbau unterscheiden. Dabei können unterschiedliche Kriterien relevant sein, z.B. die angewendeten Lernregeln, die Anzahl der →Schichten (Hidden Layers), ob der →Lernprozess überwacht ist (→Überwachtes/Unüberwachtes Lernen) usw. Bekannte Netzarchitekturen sind →Rekurrente Neuronale Netze (RNNs) und →Convolutional Neural Networks (CNNs). |
N-Gramm | N-Gramme spielen im →Natural Language Processing eine große Rolle. Dabei wird eine bestimmte Anzahl an Zeichen oder Wörtern analysiert. Das N ist hier der Platzhalter für die Anzahl der zu betrachtenden Zeichen oder Wörter. Beispiel: Bigramm für zwei Zeichen oder Wörter, Trigramm für drei Zeichen oder Wörter. Werden einzelne Zeichenfolgen und nicht ganze Wörter analysiert, spricht man auch von Character-Bigram oder Character-Trigram (eng. character = dt. Schriftzeichen). |
O
Overblocking (Überblockierung) | Entfernt oder blockiert das KI-System zu viele Beiträge von Nutzer*innen, also auch solche, die kein Hate Speech darstellen, d.h. falls es zu vielen →Falsch Positiven kommt, bezeichnet man dies als Overblocking. Das Gegenteil hierzu stellt →Underblocking dar. |
Overfitting (Überanpassung) | Wenn ein →Künstliches Neuronales Netz während des Trainings alle bekannten Daten sehr oft gesehen hat, kann es passieren, dass das künstliche neuronale Netz diese Daten eher "auswendig lernt", statt ein abstraktes Konzept zu lernen und zu "verstehen". Das Modell hat an diesem Punkt die perfekte Funktion für alle bekannten Daten gefunden, es kann diese Funktion jedoch nicht auf neue Daten anwenden. Dadurch versagt das Modell, wenn neue Daten als →Input eingespeist werden. Dieses Problem wird als Overfitting bezeichnet. |
P
Perzeptron | Das Perzeptron war die erste Art eines →Künstlichen Neuronalen Netzes und stellt zugleich seine einfachste Form und somit die Grundlage eines neuronalen Netzes dar. Man kann sagen, dass ein neuronales Netz ein zusammenhängendes System von Perzeptronen ist. Ein Perzeptron besteht aus einer Eingabe-Schicht (mit einem oder mehreren Neuronen), einer Verarbeitungsschicht mit den Gewichten und der Aktivierungsfunktion sowie der Ausgabe-Schicht, welche ein Ergebnis liefert. |
Precision (Präzision/Genauigkeit) | Maß für die Korrektheit der Vorhersage eines Systems. Es wird bei der Auswertung von Klassifikationsverfahren angewandt, um zu überprüfen, wie viel Prozent der als positiv eingestuften Daten auch tatsächlich korrekt sind. Dazu werden die →Richtig Positiven durch die Summe aus Richtig Positiven und →Falsch Positiven geteilt. Bei einer Suchmaschine würde beispielsweise der Anteil der relevanten gefundenen Dokumente an der Gesamtmenge der gefundenen Dokumente berechnet werden. |
R
Random Forest (Zufallswald) | Ein Random Forest ist ein Klassifikationsverfahren, das aus mehreren →Entscheidungsbäumen besteht, die nicht miteinander in Zusammenhang stehen. Jeder Entscheidungsbaum in einem Random Forest liefert ein eindeutiges Ergebnis zu derselben Klassifikationsaufgabe. Letztendlich wird das Ergebnis ausgewählt, das von den meisten Entscheidungsbäumen ausgegeben wurde. Durch die Vielzahl der Entscheidungsbäume wird die bestmögliche Entscheidung bzw. Vorhersage getroffen. |
Recall (Trefferquote) | Maß für die Trefferquote der Vorhersage eines →Künstlichen Neuronalen Netzes. Parallel zu →Precision wird der Recall bei Klassifikationsverfahren angewandt, um zu überprüfen, wie vollständig die Ergebnisse als korrekt eingestuft wurden. Dadurch wird beispielsweise festgestellt, wie viel Prozent der Hate Speech in einer Datensammlung unerkannt geblieben ist. Somit werden außer den richtigerweise als positiv eingestuften Daten (→Richtig Positive) auch die nicht als positiv erkannten, also fälschlicherweise negativ eingestuften Daten (→Falsch Negative) in Betracht gezogen. Zur Berechnung werden die Richtig Positiven durch die Summe aus Richtig Positiven und Falsch Negativen geteilt. |
Recurrent Neural Network (RNN) (Rekurrentes Neuronales Netz) | Eine bestimmte →Netzarchitektur bzw. ein Netztyp. Dieser Netztyp ist durch Rückkopplungen zu Neuronen derselben oder der vorangegangenen →Schicht gekennzeichnet. Das heißt, bei der Ausgabe werden Rückmeldungen an vorangegangene Neuronen gesendet. Die Besonderheit bei RNNs ist, dass die →Eingabe schrittweise als Sequenz verarbeitet wird, z.B. bei Texten als eine Sequenz von Wörtern in der Regel von links nach rechts. Bei jedem Verarbeitungsschritt der Sequenz bedingt die Rückkopplung, dass die Gewichte aktualisiert werden, was einen Einfluss auf die Gewichtung des →Inputs der folgenden Sequenzschritte hat. |
Richtig Positiv (True Positive) | Um die Fähigkeiten eines →Künstlichen Neuronalen Netzes zu bewerten, werden →Precision (Präzision/Genauigkeit) und →Recall (Trefferquote) der Ergebnisse überprüft. "True Positives" stellen den Teil der Daten dar, der vom Modell korrekt als "positiv", also "wahr", klassifiziert wurde. In Bezug auf Spam-Mails wären dies die korrekt als Spam klassifizierten Mails. |
S
Schicht (Layer) | Eine Schicht (Layer) fasst eine Anzahl von Neuronen zusammen, die innerhalb des →Künstlichen Neuronalen Netzes den gleichen →Input und die gleiche Aktivierungsfunktion haben. Schichten haben eine hierarchische Anordnung, die die Abfolge der Schichten festlegt. Ein Neuronales Netz hat immer eine Eingabe- und eine Ausgabe-Schicht. Dazwischen können beliebig viele versteckte Schichten liegen. |
T
Testphase eines NNs | In der Testphase werden im Gegensatz zur →Trainingsphase keine Gewichte verändert. Stattdessen wird hier auf Grundlage der bereits modifizierten Gewichte aus der Trainingsphase untersucht, wie gut das trainierte automatische System die Aufgabe gelernt hat. Dazu präsentiert man den Inputneuronen Reize und prüft, welchen Output das neuronale Netz berechnet. Dabei werden dem System entweder die Ausgangsreize (also erneut das Trainingsmaterial) oder neue Reize präsentiert. Bei der Präsentation der Ausgangsreize kann festgestellt werden, ob das System das Trainingsmaterial erfasst hat. Werden neue Reize präsentiert, kann überprüft werden, ob das System über die zu lernenden Reize hinaus in der Lage ist, Aufgaben zu lösen und ob somit eine Generalisierung stattfindet, das Gelernte also auf neue Reize übertragen wird. |
Trainingsphase | Das →Künstliche Neuronale Netz "lernt" anhand der gesammelten Daten bzw. des vorgegebenen Lernmaterials (→Lernprozess eines NNs). |
U
Underblocking (Unterblockierung) | Entfernt oder blockiert der KI-Algorithmus zu wenige Beiträge von Nutzern, also erkennt solche, die Hate Speech darstellen, nicht, so bezeichnet man dies als Underblocking. Das Gegenteil davon ist →Overblocking. |
Underfitting (Unteranpassung) | Das trainierte →Künstliche Neuronale Netz macht schlechte Vorhersagen, da es die Komplexität der Trainingsdaten nicht verstanden hat. Das Modell wurde sozusagen nicht ausreichend trainiert. Für das Underfitting kann es viele Gründe geben. Zum Beispiel können falsche Eigenschaften (features) für das Training ausgewählt worden sein oder der Trainingsprozess wurde nicht oft genug wiederholt. Auch eine zu geringe Anzahl an →Schichten (Hidden Layers) kann der Grund sein. |
Unüberwachtes Lernen | Beim Unüberwachten Lernen soll das →Künstliche Neuronale Netz nach beliebigen Mustern in den Daten suchen. Ziel ist, dass dadurch Kategorien entstehen, die dem Menschen aufgrund der Fülle an Daten sonst verborgen bleiben würden. Es können auch Zusammenhänge unter den Daten erkannt werden. Die vorgegebenen Daten sind hier, im Gegensatz zum →Überwachten Lernen, nicht vorannotiert. |
Ü
Überwachtes Lernen | Beim Überwachten Lernen lernt das System ein Modell aus vorannotierten (→Annotation) Daten. Das System versucht, die gegebenen Daten nachzumodellieren, und lernt dabei, Muster zu erkennen. Es wird also im Gegensatz zum →Unüberwachten Lernen nach einer bestimmten Zielvariable in den Rohdaten (ungeprüfte und nicht bearbeitete Daten) gesucht. |
W
Word Embedding (Worteinbettung) | Word Embeddings sind komprimierte Bedeutungsrepräsentationen in Form von Wortvektoren. Ein Wortvektor ist die numerische Repräsentation eines Wortes, also die Darstellung eines Wortes in Zahlen. Word Embeddings werden häufig bei der Verarbeitung von Sprachdaten als Eingabemerkmale für →Künstliche Neuronale Netze verwendet. Diese Wortvektoren werden üblicherweise nach dem Prinzip der →Distributionellen Semantik auf einer großen Menge an Sprachdaten durch ein Neuronales Netzwerk vortrainiert. |
A
Algorithmische Governance | Immer häufiger werden Algorithmen in Wirtschaft, Politik und Verwaltung als Steuerungsinstrumente eingesetzt. Insbesondere privatwirtschaftliche Akteure, darunter Plattformbetreiber, setzen algorithmische Governance-Instrumente ein, um das Nutzungsverhalten ihrer User*innen zu lenken. |
B
Bestandsdatenauskunft | Bestandsdaten sind Daten von Nutzer*innen, die bei der digitalen Kommunikation durch Betreiber erfasst und vorübergehend gespeichert werden. Darunter fallen personenbezogene Daten, die sich aus dem Abschluss eines Vertrages ergeben, ebenso wie vielfältige digitale Spuren, die sogenannten Metadaten. Zu den Metadaten zählen die IP-Adresse und der Zeitpunkt des Datenzugriffs. Nicht dazu zählen die Inhalte von Kommunikation. Die entsprechenden Daten können von den Anbietern auf Anfrage an Sicherheitsbehörden manuell weitergegeben werden. Bei einem Gesuch der Bestandsdatenauskunft werden oftmals Informationen über Nutzungs- und Kund*innendaten, Passwörter und IP-Adressen angefragt. Die rechtliche Grundlage dafür in Deutschland bietet das Telekommunikationsgesetz (§113 TKG). Grundsätzlich ist dieser Vorgang verfassungsrechtlich zulässig; Voraussetzung ist, dass die Übermittlung der Daten der Verfolgung einer besonders schweren Straftat dienlich ist. |
Budapest-Konvention | 2001 wurde der erste internationale Vertrag gegen Cyber-Kriminalität, die Budapest-Konvention, durch den Europarat verabschiedet. Die Konvention trat 2004 in Kraft. Das Übereinkommen gehört auf europäischer Ebene zu den zentralen Instrumenten in der Bekämpfung von digital begangenen Straftaten. Über die Konvention wird eine Harmonisierung des Strafrechts der beteiligten Nationen und eine bessere internationale Zusammenarbeit bei der Bekämpfung von Cyber-Kriminalität angestrebt. Die Gegenstände der Konvention sind vornehmlich Verletzungen des Urheberrechts, der Besitz und die Verbreitung von Kinderpornographie, digitaler Betrug sowie Verstöße gegen die Sicherheit von elektronischen Netzwerken. Ein Zusatzprotokoll aus dem Jahr 2003 ergänzt die Konvention um die Kriminalisierung und strafrechtliche Verfolgung von rassistischer und fremdenfeindlicher Hassrede und Volksverhetzung im Internet. |
C
The EU Code of conduct on countering illegal hate speech online | Im Mai 2016 beschloss die Europäische Kommission gemeinsam mit Facebook, Microsoft, Twitter und YouTube einen Verhaltenskodex über die Regulierung von rassistischer und fremdenfeindlicher Hassrede auf Internetplattformen. In den darauffolgenden Jahren traten weitere →Plattformen, darunter Instagram, Snapchat, Dailymotion und TikTok, dem freiwilligen Kodex bei. Über den Verhaltenskodex wird festgelegt, wie die beteiligten Plattformen mit rassistischer Hassrede auf ihrem Medium umzugehen haben. Von Nutzer*innen gemeldete, potenziell rechtswidrige Inhalte gilt es unmittelbar zu prüfen und ggf. umgehend zu entfernen. Dennoch ist das Prinzip der →Meinungsfreiheit zu schützen. Beobachtet und evaluiert wird die Umsetzung des Kodex von national agierenden, zivilgesellschaftlichen Organisationen. |
Community Standards (Gemeinschaftsstandards) | Über die Gemeinschaftsstandards wird festgelegt, was auf einer →Plattform erlaubt ist und was nicht. So soll verhindert werden, dass Nutzer*innen sich auf der Plattform missbräuchlich verhalten. Gemeinschaftsstandards verweisen oftmals auf allgemeine Rechtsnormen. |
Content-Moderation | Unter Content-Moderation wird die Verwaltung, Kuration und Kontrolle der geteilten Inhalte auf einer Kommunikationsplattform im Internet verstanden. Sie ist ein Instrument der →Content-Regulierung. Der Content wird hinsichtlich seiner Passung mit den →Gemeinschaftsstandards der jeweiligen →Plattform sowie allgemeinen Rechtsnormen überprüft. Inhalte, die diese Regeln verletzen, werden gemeldet, blockiert oder gelöscht. Ausgeführt wird die Content-Moderation von internen Mitarbeiter*innen, externen Anbietern oder einzelnen Nutzer*innen der jeweiligen Plattform. |
Content-Regulierung | Im Zuge der Content-Regulierung wird in den Informationsfluss auf Internetplattformen eingegriffen. Die Regulationsziele sind vielfältig. Dazu zählen etwa der Kampf gegen Hasskriminalität, Hassrede und Desinformation sowie allgemeiner die Wahrung von Rechtsnormen oder der →Gemeinschaftsstandards des Mediums. Beispiele für Instrumente der Content-Regulierung sind die Moderation und automatisierte →Uploadfilter. |
E
EU-Rahmenbeschluss zur strafrechtlichen Bekämpfung bestimmter Formen und Ausdrucksweisen von Rassismus und Fremdenfeindlichkeit | Der 2008 verabschiedete Rahmenbeschluss verpflichtet die EU-Mitgliedsstaaten zur strafrechtlichen Erfassung und Verfolgung rassistischer Hasskriminalität. Straftaten werden dann als rassistisch eingestuft, wenn Menschen auf Grund ihrer ethnischen, nationalen oder religiösen Gruppenzugehörigkeit zum Ziel von Hass, Gewalt oder der Aufstachelung zu Straftaten werden. Zudem sieht der Rahmenbeschluss die Strafverfolgung der öffentlichen Billigung, Verharmlosung und Leugnung von Verbrechen gegen die Menschlichkeit und Kriegsverbrechen vor. |
G
Geoblocking | Das Geoblocking wird zur →Content-Regulierung in sozialen Netzwerken eingesetzt. Durch den Einsatz dieser Technik werden Inhalte für Nutzer*innen abhängig vom geographischen Standort des Zugriffs blockiert. Geoblocking kommt zum Einsatz, wenn Nutzungsrechte oder Rechtsnormen hinsichtlich strafbarer Inhalte national variieren. Ein Beispiel hierfür ist die Leugnung des Holocaust. Diese ist in Deutschland, jedoch nicht in den USA, rechtswidrig. →Plattformen, deren Hauptsitz in den USA liegt, behalten sich vor, Inhalte, die den Holocaust verharmlosen oder leugnen, lediglich für Nutzer*innen z.B. aus Deutschland zu blockieren, anstatt sie gänzlich zu löschen. |
Gesetzespaket gegen Rechtsextremismus und Hasskriminalität | Das im April 2021 verabschiedete Gesetzespaket soll die konsequente strafrechtliche Verfolgung von Hasskriminalität und Rechtsextremismus im Internet voranbringen. Plattformanbieter sind dazu verpflichtet, strafbare Inhalte einer, eigens für diesen Zweck eingerichteten, Zentralstelle des Bundeskriminalamts zu melden. Das Gesetz stellt somit eine Ergänzung zu der bereits bestehenden Löschpflicht dar. Zudem unterliegen die Plattformanbieter der Pflicht, bei besonders schweren Straftaten den Behörden der Strafverfolgung und der Gefahrenabwehr Auskunft über die Daten der entsprechenden Nutzer*innen zu erteilen. Das Gesetzespaket sieht zudem vor, dass antisemitisch motivierte Straftaten schärfer geahndet werden und Kommunalpolitiker*innen und das Personal in Rettungsstellen besser geschützt werden. |
Governance | Unter den Begriff der Governance fallen Formen nicht-hierarchischer politischer Steuerung. Diese unterscheiden sich insbesondere durch das enge Zusammenwirken verschiedener politischer Ebenen von traditionellen Formen des Regierens. Bei Governance-Prozessen sind somit verschiedene Ebenen an der politischen Entscheidungsfindung und -umsetzung beteiligt. Analog dazu wird von dem Modell des Mehrebenen-Regierens gesprochen, für das die EU als Paradebeispiel gilt. Die EU-Politik zeichnet sich durch die Verflechtung verschiedener politischer Ebenen aus, darunter die supranationale Ebene der EU, die europäischen Mitgliedsstaaten, die regionale sowie die kommunale Ebene. |
H
Haftungsprivileg | Das Haftungsprivileg ist ein Eckpfeiler der Internetregulierung, der vorsieht, dass →Plattformen und andere →Internetintermediäre nicht für das rechtswidrige Verhalten ihrer Nutzer*innen haften. Die Verantwortung liegt also damit bei den Nutzer*innen, die Inhalte hochladen, nicht bei den Plattformen. Der Haftungsausschluss gilt jedoch nicht, wenn illegale Inhalte von den Plattformbetreibern wissentlich geduldet werden. |
I
Internetintermediär | Internetintermediäre nehmen eine Schnittstellenfunktion zwischen den Anbietern von Informationen und Inhalten im Netz und den Nutzer*innen ein. Durch das Zusammentragen von Informationen, Gütern und Dienstleistungen und die algorithmische Aufmerksamkeitssteuerung machen sie diese für Konsument*innen zugänglich. Zu den größten Intermediären zählen Suchmaschinen wie Google und soziale Netzwerke wie Facebook. |
K
Ko-Regulierung | Unter Ko-Regulierung wird das Zusammenspiel von politisch-administrativer Steuerung und privater →Selbstregulierung verstanden. Hierbei kooperieren staatliche Akteure einerseits und zivilgesellschaftliche und private Akteure andererseits in ihren Regulierungsbestrebungen. In der Praxis sieht dies häufig so aus, dass von staatlicher Seite die Einrichtung selbstregulierender Elemente zwingend vorgeschrieben, ihre Umsetzung überprüft und evaluiert wird. |
M
Meinungsfreiheit | Die Meinungsfreiheit ist in verschiedenen Grundrechtskatalogen verankert. In Deutschland ist sie in Artikel 5 GG festgeschrieben. Demnach hat jeder Mensch das Recht auf Meinungsfreiheit und freie Meinungsäußerung. Dieses Recht schließt das Teilen und Veröffentlichen der eigenen Meinung über jegliche Medien ein. →Zensur ist unzulässig. Die Meinungsfreiheit ist ein Schutzrecht der Menschen gegenüber dem Staat. Somit muss der Staat die Meinungsfreiheit der Menschen achten und gewährleisten. Ihre Grenzen findet die Meinungsfreiheit dann, wenn sie mit anderen, gleichrangigen Rechtsansprüchen kollidiert. Grundgesetz für die Bundesrepublik Deutschland (1) Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt. (2) Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre. (3) Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung. |
N
Netzwerkdurchsetzungs- gesetz | Das Ziel des 2017 verabschiedeten Netzwerkdurchsetzungsgesetzes (NetzDG) ist die Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, insbesondere hinsichtlich Hasskriminalität und strafbarer Falschnachrichten. Das NetzDG sieht die Einrichtung eines Beschwerdemanagementsystems seitens der Plattformanbieter vor, über das Nutzer*innen strafbare Inhalte melden können. Die betroffenen →Plattformen sind verpflichtet, auf die eingegangenen Meldungen kurzfristig zu reagieren, die Inhalte auf ihre strafrechtliche Relevanz zu prüfen und rechtswidrige Inhalte umgehend zu löschen. So kommen sie ihrer, unter dem NetzDG erteilten, Löschpflicht nach. Der Prozess der Rechtsprüfung ist transparent zu gestalten und die Nutzer*innen sind über den Ausgang ihrer Beschwerde zu informieren. Nutzer*innen wiederum, deren Beiträge von Löschungen unter dem NetzDG betroffen sind, können diese als unrechtmäßig anfechten. Überdies sind jene Plattformen, die unter den Gültigkeitsbereich des NetzDG fallen, verpflichtet, einen halbjährlichen →Transparenzbericht zu veröffentlichen, in dem sie über ihre Handhabung und Umsetzung des Gesetzes informieren. |
Notice-and-take-down | Das Notice-and-take-down-Verfahren ist ein Instrument im Vorgehen gegen rechtswidrige Inhalte auf Internetplattformen, das aus den Selbstregulierungsanstrengungen der Anbieter hervorgegangen ist. Moderator*innen oder Nutzer*innen können potenziell strafbare Inhalte als solche markieren und der Plattformadministration melden. Die Beschwerden werden geprüft und ggf. gemeldete Inhalte entfernt, blockiert oder der/die Urheber*in kontaktiert. Durch das unmittelbare Löschen strafbarer Inhalte kommen die →Plattformen ihrer Löschpflicht nach. |
P
Plattform | Plattformen sind programmierte, digitale Architekturen, die vielfältige Interaktionen und Transaktionen zwischen Kommunikationsteilnehmer*innen und Anbietern ermöglichen. Aktuell gehören Plattformen zu den prominentesten Nutzungs- und Erscheinungsformen des Internets. Auch soziale Medien zählen zu der übergeordneten Kategorie der Plattformen. Die Gesamtheit aller Plattformen, ihre Interdependenz und Infrastruktur, wird unter dem Begriff des Plattformökosystems zusammengefasst. Das Plattformökosystem der westlichen Welt wird von fünf großen Plattformen, den sogenannten "Big Five" (Alphabet-Google, Apple, Facebook, Amazon und Microsoft) dominiert. Plattformen spielen eine wichtige Rolle für das gesellschaftliche Leben und die digitale Ökonomie. Sie sind heute die vorherrschenden Gatekeeper für die Nutzung des Internets und damit die Teilhabe am digitalen Leben und der digitalen Öffentlichkeit. Viele Plattformen sind auf das Sammeln, Verarbeiten und die Verwertung von Nutzer*innendaten ausgerichtet. |
R
Reporting | Beim Reporting werden potenziell strafbare oder gegen die →Gemeinschaftsstandards verstoßende Inhalte von Nutzer*innen, Moderator*innen oder anderen Akteur*innen an die Plattformadministration gemeldet. |
Richtlinie über den elektronischen Geschäftsverkehr | Die EU-Richtlinie über den elektronischen Geschäftsverkehr von 2000 setzt den rechtlichen Rahmen für spezifische Dienste der Informationsgesellschaft, insbesondere bezogen auf den elektronischen Geschäftsverkehr. Sie sieht unter anderem vor, dass →Plattformen und andere →Internetintermediäre nicht für die Inhalte, die ihre Nutzer*innen hochladen und teilen, haftbar sind. Die Haftungsbefreiung gilt, wenn die Anbieter Inhalte, die sich als rechtswidrig erweisen, umgehend entfernen. Die Entwicklung des →Notice-and-take-down-Verfahrens ist auf diese Richtlinie zurückzuführen. |
S
Selbstregulierung | Selbstregulierung ist ein Typ gesellschaftlicher Regulierung. Hierbei setzen zivilgesellschaftliche und privatwirtschaftliche Einrichtungen ihrerseits Regeln, um der Verletzung gesellschaftlicher Normen vorzubeugen. Sie sind damit auch für die Umsetzung verantwortlich und für wirksame Sanktionsmaßnahmen im Fall von Verstößen. Über Selbstregulierung kann staatlichen Regulierungs- oder →Ko-Regulierungsschritten mitunter zuvorgekommen werden. |
Staatliche Regulierung | Die staatliche Regulierung ist ein zentrales Element staatlicher Steuerung, dessen Ziel es ist, das Verhalten gesellschaftlicher Akteure durch ordnungspolitische Eingriffe zu lenken. Über Eingriffe dieser Art versucht der Staat insbesondere das ökonomische Marktgeschehen zu ordnen und ein drohendes Marktversagen zu korrigieren oder zu vermeiden. Weitere Felder staatlicher Regulierung sind Ökologie und Innovation. In der Praxis zeigt staatliche Regulierung sich in direkten Eingriffen des Staates in die Marktabläufe. Durch Vorschriften und Gesetzgebungen, die dem Allgemeinwohl dienen sollen, beeinflusst der Staat die Handlungsmöglichkeiten von Unternehmen. Diesem Regulierungsansatz zu Grunde liegt die Vorstellung, dass gesellschaftliche Vorgänge durch politisch-administrative Maßnahmen gesteuert werden können und sollen. |
T
Transparenzbericht | Soziale Netzwerke, die unter den Gültigkeitsbereich des NetzDG fallen, sind verpflichtet einen halbjährlichen Transparenzbericht zu veröffentlichen, in dem sie über ihren Umgang mit und ihre Umsetzung von den Richtlinien des Gesetzes informieren. Hier zählen sie beispielsweise auf, wie viele NetzDG-Beschwerden sie erreicht haben, wie viele Inhalte betroffen waren und wie viele dieser Inhalte im Anschluss an die rechtliche Prüfung gelöscht wurden. |
Trusted Flagger | Das Trusted-Flagger-Programm ist ein Instrument sozialer Netzwerke, etwa im Rahmen des →Code of Conduct, zur Optimierung des Meldeprozesses bei rechtswidrigen Inhalten. Regierungsbehörden, zivilgesellschaftlichen Akteuren und Privatpersonen ist es möglich, Trusted Flagger zu werden. So erlangen sie den Status als vertrauenswürdige Hinweisgeber*innen, deren Meldungen vorrangig behandelt werden. In Deutschland sind neben dem Bundeskriminalamt auch die Landeskriminalämter am Trusted-Flagger-Programm beteiligt. |
U
Uploadfilter | Durch die Implementierung eines Uploadfilters werden Inhalte, bevor sie auf einer →Plattform veröffentlicht werden, also beim Hochladen (upload), auf ihre Konformität mit bestehenden Rechtsnormen gefiltert und geprüft. Der Einsatz eines Uploadfilters kann verschiedene Regulationsziele verfolgen. Weit verbreitete Anwendung findet er insbesondere im Schutz des Urheberrechts. Ein weiteres mögliches Einsatzgebiet ist die Regulierung von strafbarer Hassrede auf Internetplattformen. |
User-generated Content | Jegliche Inhalte, darunter Textbeiträge, Fotos, Videos und Audiodateien, die von den Nutzer*innen selbst geschaffen und anschließend auf →Plattformen geteilt werden. |
W
Wehrhafte Demokratie | Der Begriff der wehrhaften oder auch streitbaren Demokratie wurde vom Bundesverfassungsgericht geprägt und verweist auf die Bereitschaft des Staates, sich gegen die Gefahren für und Feind*innen der freiheitlichen Demokratie zur Wehr zu setzen. |
Z
Zensur | Von Zensur wird gesprochen, wenn der Staat die Medien und deren Berichterstattung kontrolliert. In Art. 5 (1) GG heißt es, dass in Deutschland keine Zensur stattfindet. |
B
Bedrohung | Nach Paragraph 241 StGB ist die ernsthafte und schwere Bedrohung von Menschen strafbar. Dies gilt auch für Bedrohungen im Internet. Inhalte von strafbaren Bedrohungen sind beispielsweise Körperverletzung, Vergewaltigung oder Mord. Hinreichend ist, wenn die Bedrohung objektiv als ernst erscheint und der/die Betroffene sich bedroht fühlt. Unerheblich ist hierbei, ob die Drohung lediglich geäußert, nicht jedoch in die Tat umgesetzt wird. Die Bedrohung kann sich an die adressierte Person direkt, deren Angehörige oder Freund*innen richten. Die Strafe für eine Bedrohung reicht von einer Geldstrafe bis zu einer Freiheitsstrafe von bis zu einem Jahr. |
Beleidigung | Der Tatbestand der Beleidigung liegt nach Paragraph 185 StGB vor, wenn eine Person die Ehre einer anderen mündlich, schriftlich oder durch Gesten verletzt. Beleidigungen sind dann strafbar, wenn eine Person herabgewürdigt oder als minderwertig dargestellt wird. Zudem muss erkennbar sein, gegen wen die Beleidigung sich richtet. Die Staatsanwaltschaft ist nicht verpflichtet einen Strafantrag auf Beleidigung zu verfolgen und verweist die Kläger*innen mitunter auf den Weg der Privatklage. |
G
Gewaltdarstellung | Nach Paragraph 131 StGB ist die verharmlosende, verherrlichende oder die Menschenwürde verletzende Darstellung einer Gewalttat gegen Menschen oder menschenähnliche Wesen strafbar. Dies gilt zum einen für deren Veröffentlichung durch Schrift, Ton- oder Bildaufnahmen. Zudem ist es strafbar, die Darstellungen von Gewalt einer minderjährigen Person zugänglich zu machen. Hierbei ist unerheblich, ob es sich um eine reale oder fiktionale Darstellung handelt. Die beschriebene Tat stellt eine Verletzung der Menschenwürde und mitunter einen Verstoß gegen das Jugendschutzgesetz dar. Die rechtswidrige Gewaltdarstellung kann mit einer Freiheitsstrafe von bis zu einem Jahr oder einer Geldstrafe geahndet werden. |
N
Nötigung | Von Nötigung nach Paragraph 240 StGB wird dann gesprochen, wenn eine Person durch die Androhung von Gewalt, Körperverletzung oder Mord zu bestimmten Handlungen gezwungen werden soll. Hierbei ist unerheblich, ob die Nötigung erfolgreich ist. Allein der Versuch ist strafbar. Drohungen können sich gegen die Person selbst, deren Angehörige oder Freund*innen richten. Der Tatbestand der Nötigung wird mit einer Geldstrafe oder einer Freiheitsstrafe von bis zu drei Jahren, oder in besonders schweren Fällen von bis zu fünf Jahren, geahndet. |
Ö
Öffentliche Aufforderung zu Straftaten | Unter dem Tatbestand der öffentlichen Aufforderung zu Straftaten wird nach Paragraph 111 StGB der öffentliche Aufruf zu einer rechtswidrigen Tat verstanden. Hierunter fällt auch das Verbreiten eines solchen Inhalts im Internet. Der Aufruf zu einer Straftat ist unabhängig davon strafbar, ob ihm Folge geleistet wird. Notwendige Bedingung für die Strafverfolgung ist die Konkretisierung des Aufrufs, aus dem Tatort, Tatzeit und Opfer hervorgehen müssen. Die öffentliche Aufforderung zu Straftaten kann mit einer Freiheitsstrafe von bis zu fünf Jahren oder einer Geldstrafe geahndet werden. |
R
Recht am eigenen Bild | Nach Paragraph 201a StGB hat jeder Mensch das Recht am eigenen Bild. Fotos, auf denen Menschen deutlich zu erkennen sind, dürfen nur unter ihrer Einwilligung veröffentlicht werden. Mitunter bedarf es einer Erlaubnis, um Fotos von Menschen aufzunehmen. Dementsprechend ist es strafbar, Fotos, auf denen Menschen im nicht-öffentlichen Raum oder einzeln zu sehen sind, ohne die Einwilligung der jeweiligen Person, zu verbreiten. Eine Veröffentlichung ohne Zustimmung stellt eine Verletzung der Persönlichkeitsrechte dar, die mit einer Freiheitsstrafe von bis zu zwei Jahren oder einer Geldstrafe geahndet werden kann. Die Verwendung eines bereits veröffentlichten Bildes als Meme ist nicht prinzipiell strafbar, da es oft der zugehörige Text und nicht das Bild als solches ist, der die abgebildete Person diffamiert. |
Ü
Üble Nachrede | Die Verbreitung einer nicht als wahr bewiesenen, verächtlichen und herabwürdigenden Behauptung über eine andere Person ist strafbar. Der zugehörige Tatbestand der üblen Nachrede ist unter Paragraph 186 StGB zu finden. Dies gilt auch, wenn eine falsche Behauptung lediglich weitergegeben, beispielsweise ein Post geteilt wird. Im Gegensatz zur →Verleumdung werden in diesem Fall keine absichtlichen Lügen verbreitet. Der/die Täter*in hält die Behauptung für wahr. Üble Nachrede kann mit einer Freiheitsstrafe von bis zu einem Jahr oder einer Geldstrafe geahndet werden. Das Strafmaß fällt höher aus, wenn die Behauptung öffentlich gemacht wird. |
V
Verleumdung | Die Straftat der Verleumdung nach Paragraph 187 StGB begeht, wer unwahre Behauptungen, also eine Lüge, über eine andere Person, mit dem Ziel diese herabzuwürdigen oder zu diskreditieren, verbreitet. Hierbei geht es um bewusst falsche Behauptungen, nicht um Übertreibungen oder Meinungen. Auch das Weitergeben und Teilen einer verleumderischen Lüge ist strafbar. Die Tat kann mit einer Geldstrafe oder einer Freiheitsstrafe von bis zu zwei Jahren geahndet werden. Erfolgt die Verleumdung in der Öffentlichkeit, ist das Strafmaß mit einer Freiheitsstrafe von bis zu fünf Jahren noch höher. |
Volksverhetzung | Unter den Tatbestand der Volksverhetzung fällt nach Paragraph 130 StGB der Aufruf zu Hass und Gewalt gegen Einzelpersonen oder Personengruppen auf Grund ihrer Ethnizität, Nationalität oder Religionszugehörigkeit. Hetze dieser Art stellt einen Angriff auf die Menschenwürde dar. Dies gilt ebenfalls für die Weitergabe und das Teilen volksverhetzender Inhalte. Auch bei der Leugnung, Verharmlosung oder Billigung des Holocaust wird von Volksverhetzung gesprochen. Geahndet wird diese Straftat mit einer Geld- oder Freiheitsstrafe von bis zu fünf Jahren. Die Strafe fällt insbesondere dann hoch aus, wenn die Tat in der Öffentlichkeit begangen wird. |