Blizzard experimentiert mit KI gegen toxisches Verhalten!

Toxisches Verhalten in Videospielen? Blizzard sagt: “Nein, danke!”. Mit Hilfe künstlicher Intelligenz geht Blizzard gegen Störenfriede in Spielen vor.

Es gibt viele Formen von Toxizität in Videospielen. Beleidigungen, Diskriminierung, Trolling, Bedrohungen und Stalking sind leider keine Seltenheit. Im Kampf gegen toxisches Verhalten hat Blizzard eine künstliche Intelligenz entwickelt, die das verringern soll. In den meisten Spielen ist es dem Nutzer möglich, schlechtes Benehmen zu melden.

Allerdings führen diese “Reports” des Öfteren zu keinem Ergebnis. Der CEO von Blizzard, meldet zu diesem Problem, dass sie derzeit in den Spielen Overwatch, Heroes of the Storm und World of Warcraft vereinzelt KI verwenden, um toxisches Verhalten zu unterbinden. Im besten Fall sollen gerade Mehrfach-Täter schneller überprüft und im Falle von Unangemessenem Verhalten direkt bestraft oder der Zugang zu ihren Spielen verwehrt werden.

Das Problem mit KI

Hier stellt sich die Frage: Kann eine Maschine wirklich den Unterschied von schlechtem Verhalten und freundschaftlichen Beschimpfungen zu erkennen. Menschliche Interaktionen richtig zu lesen ist auch für smarte Algorithmen eine schwere Aufgabe. Wenn diese nicht richtig abgestimmt werden, besteht die Möglichkeit, dass auch unschuldige Spieler ins Kreuzfeuer geraten.

Dazulernen und Vermeiden

Das Filtern von Schimpfwörter aus dem Text-Chat sind für die meisten Spiele keine Neuheit. Dennoch ist es möglich seiner Meinung durch das Täuschen der Filter trotzdem zum Ausdruck zu bringen. Mit einem “**** dich!”, ist für die meisten Spieler klar, was der unvollständige Satz bedeuten soll. In diesem Fall springt die Funktion der KI ein, die anhand solchen Beispielen dazulernen soll und letzten Endes die Wörter und Sätze richtig interpretieren soll.

Für die Ausnahmen, die die Algorithmen nicht erkannt haben können, wird es dem Spieler ermöglicht, eine Meldung mit diesen Kategorien einzureichen:

  • Ein Inhalt, der für den Spieler beleidigend ist, von der KI aber nicht erkannt wurde.
  • Ein Inhalt, der für die KI beleidigend ist, aber nicht vom Spieler gemeldet wurde.
  • Einen Inhalt, der nicht zugeordnet werden kann.

Dazu die Erklärung von Blizzard CEO J. Allen Brack:

Ob es Blizzard wirklich gelingt eine geeignete Lösung zu finden, die den größten Teil des toxischen Verhaltens entfernt, bleibt abzuwarten.

Was glaubt ihr? Kann KI das toxische Verhalten von Nutzern eindämmen? Schreibt es uns auf Facebook, Twitter oder Discord!

Gebt uns auch gerne Feedback zu unserer Website!

Bildquelle: YouTube, Riot Games


Source: Read Full Article