Kürzlich hat die Google Tochterfirma Jigsaw den Algorithmus „Perspective“ vorgestellt. Dieser soll Userkommentare im Internet künftig auf ihre „Giftigkeit“ kontrollieren und filtern. Wir haben mit Ingrid Brodnig über das neue Tool gesprochen.
Egal was du im Internet sagst, irgendjemand ist immer dagegen. Facebook, Twitter, Youtube und Co sind voll mit Internettrollen und Menschen, die möglichst jedem beweisen wollen, dass ihr Weg der richtige ist. Weil aber nicht jeder Recht haben kann, eskaliert die Situation oft. Es folgen Beschimpfungen, Bedrohungen und Aussagen, die man hier nicht wiedergeben kann. Medien weltweit versuchen, Hasskommentare und aggressiven Botschaften zu filtern und zu löschen. Die New York Times hat für diese Aufgabe etwa 14 Mitarbeiter, die täglich bis zu 11.000 Kommentare lesen und überprüfen. Bei Artikeln, unter denen negative Aussagen und Hassbotschaften erwartet werden, schließen Medienunternehmen oftmals ihre Diskussionsforen.
Ingrid Brodnig hat in Ihrem jüngsten Buch „Hass im Netz“ versucht, Gegenmaßnahmen aufzuzeigen. Die Google-Tochter Jigsaw versucht dieses Problem nun technisch zu lösen: mit dem Algorithmus „Perspective“ Er untersucht jeden Kommentar in einem Forum und versieht ihn mit einer „Giftigkeitsrate“ zwischen null und 100. Giftig sind für „Perspective“ „unhöfliche, respektlose oder unangemessene Kommentare, die User dazu verleiten, die Diskussion zu verlassen“. So sollen Hasspostings schneller erkennbar werden. Mit jedem neuen Kommentar lernt die Software eigenständig dazu, entwickelt eigene Regeln und Muster, nach denen sie Hasskommentare filtert. Getestet wurde er mit Userkommentaren der New York Times und Wikipedia. Bis jetzt ist es nur in englischer Sprache verfügbar, sollte das Projekt erfolgreich sein wird es in Zukunft vermutlich auch eine deutsche Version geben.
„Perspective“ kann in zwei Varianten eingesetzt werden. Einerseits kann die Anzeige der Giftigkeit die menschliche Moderation erleichtern, da der Fokus bei der Moderation auf jenen bereits vorgefilterten Kommentaren liegen kann. Ein Moderator müsste dann beispielsweise nicht mehr alle Kommentare auf der Seite oder unter einem speziellen Beitrag durchlesen, sondern nur jene ab einem gewissen Grad an Giftigkeit Andererseits kann „Perspective“ als eine Art Vorwarnung in den Foren verwendet werden. Wird von dem Algorithmus eine aggressive Sprache erkannt, kann dieser den User darüber informieren und zu einer neutraleren Sprache aufrufen.
In dieser zweiten Option sieht Ingrid Brodnig, Journalistin und Autorin, die sich seit Jahren mit Hetze und Hass im Internet beschäftigt, Potential: „Es gibt immer wieder Menschen, die sich in Foren in Rage schreiben. Diese steigern sich in ihrer Nachricht mehr und mehr in das Thema hinein, werden mit jeder Zeile aggressiver. Für diese Menschen kann so eine Wahrnehmung sehr sinnvoll sein. Selbst wenn das nur fünf Prozent der User erreichen würde, wäre das angesichts der Masse an Kommentaren schon sinnvoll“
Dem Einsatz der künstlichen Intelligenz zur Problemlösung steht Brodnig jedoch gerade in der Anfangsphase skeptisch gegenüber. „Es ist noch zu früh, dass sich online Medien ganz auf solche Algorithmen verlassen. Das wäre seitens der Medien riskant“, sagt sie. Denn besonders bei der Sprache sei die Arbeit mit Algorithmen schwierig: „An Projekten wie ‚Perspective‘ merkt man, wie komplex Sprache ist“. Denn derartige Programme erkennen vor allem zu Beginn nur direkt formulierte Beleidigungen, Ironie oder Sarkasmus ist für sie oftmals schwer verständlich. „Man muss nur anfangen schlimmste Dinge umständlicher zu schreiben, das würde im Moment noch nicht auffallen.
„Perspective“ ist für Ingrid Brodnig auch deshalb nicht die ultimative Lösung gegen Hass und Hetze im Internet. Denn vor allem jene Menschen, die bewusst und wissentlich aggressive Botschaften verbreiten kennen oft Möglichkeiten, sich vor allem in der Lernphase der Software an den Regeln vorbeizuschummeln und ihre Aussage dennoch zu vermitteln. „Es gibt nicht das eine magische Rezept, mit dem wir das Problem lösen können. Es wird wahrscheinlich immer im Internet Räume geben, in denen hart diskutiert wird“, sagt sie. Das erleichterte Ausfiltern dieser Aussagen, das durch „Perspective“ ermöglicht wird, ist für sie aber ein guter Ansatzpunkt. „Jene, die ihre Botschaften wissentlich aggressiv schreiben, werden dann durch solche Algorithmen demotiviert, sollten sie merken, dass ihre Kommentare schnell entfernt werden.“
Mögliche Probleme sieht sie jedoch gerade zu Beginn durch eine mögliche „algorithmische Diskriminierung“: „ Ein denkbares Szenario: Migranten haben öfters Syntaxfehler in ihren Kommentaren. Falls zuvor manche aggressive Botschaften eine ähnliche Syntax aufweisen, kann es passieren, dass die Software falsche Schlüsse zieht und Kommentare auch aufgrund solcher Muster als toxisch einstuft, obwohl sie nicht toxisch sind.“
Ihrer Meinung nach sollten solche Algorithmen deshalb nur unterstützend eingesetzt werden. „Wir bewegen uns in eine Zeit, in der die großen Software- Unternehmen immer mehr Einfluss darauf haben, was wir über die Welt wissen. Es wäre riskant, auf ihre Software blind zu vertrauen.“ Für sie müsste der Algorithmus unter ständiger Kontrolle von unabhängigen Wissenschaftern arbeiten und auch die Funktion der menschlichen Moderatoren ist ihrer Meinung nach nicht wegzudenken. „ Auch wenn menschliche Moderation im Vergleich sehr teuer ist, ist sie im Zweifelsfall notwendig.“ Denn Fehler in dem Algorithmus, sind sie auch noch so klein, können gravierende Auswirkungen haben. „Wenn ein menschlicher Moderator täglich 1000 Kommentare liest und sie zu 100 Prozent falsch bewertet, ist der Schaden noch immer geringer als bei einem Algorithmus, der jeden Tag 10 Millionen Postings prüft und dessen Fehlerquote nur bei 0,1 Prozent liegt.“
Dass Perspective in naher Zukunft auch im deutschsprachigen Raum eingesetzt wird, bezweifelt Ingrid Brodnig nicht. „Komplett ohne menschliche Moderation und Aufsicht kann ich mir das aber kaum vorstellen. Es braucht immer einen Menschen, der die Maschinen beobachtet.“
Wie gut „Perspective“ wirklich Hasskommentare analysiert, könnt ihr auf der Webseite testen.