Modulate, Entwickler einer Sprachtechnologie, die die Gesundheit und Sicherheit von Online-Communities verbessert, gab heute bekannt, dass das Unternehmen eine Partnerschaft mit der ADL (Anti-Defamation League) eingegangen ist, um deren Zentrum für Technologie und Gesellschaft (Center for Technology and Society, CTS) bei der Ausweitung seiner Arbeit zur Bekämpfung von Hass in Online-Gaming-Räumen zu unterstützen.
Die ADL kann auf eine stolze Geschichte bei der Überwachung von Antisemitismus und Extremismus im Internet zurückblicken, um die Sicherheit jüdischer Gemeinden und anderer marginalisierter Gruppen von Küste zu Küste zu gewährleisten. Seit Anfang 2017 ist das Center for Technology and Society der ADL führend im Kampf gegen Cyber-Hass. Das CTS bringt wichtige Akteure wie Technologieunternehmen, Nichtregierungsorganisationen und Wissenschaftler zusammen, um die Verbreitung von Cyber-Hass zu messen und zu stoppen. Da ADL und CTS ihre Forschung in der Spieleindustrie weiter ausbauen, wird Modulate in der Lage sein, diese Erkenntnisse bei der weiteren Entwicklung von ToxMod und anderen Produkten anzuwenden, die Studios und Entwicklungsteams helfen sollen, Hass im Internet zu bekämpfen.
„ADL ist begeistert, mit Modulate zusammenzuarbeiten, um unsere gemeinsamen Ziele einer hassfreien digitalen Welt voranzutreiben“, sagte Daniel Kelley, Director of Strategy and Operations bei CTS. „Digitale Räume, insbesondere Online-Gaming-Communities, bieten wunderbare Möglichkeiten für Unterhaltung und positive zwischenmenschliche Erfahrungen, haben aber auch das Potenzial, zu einem Hort des Online-Hasses zu werden, da über 80 % der erwachsenen Gamer Belästigungen erlebt haben.“
„Die Forschung der ADL war eine treibende Kraft bei der Entwicklung von ToxMod durch Modulate, um toxisches Verhalten in Online-Spielen zu bekämpfen“, sagte Hank Howie, Games Industry Evangelist bei Modulate. „Dass wir ADL Corporate Partner Against Hate geworden sind, ist eine echte Bestätigung unserer Bemühungen, das wachsende Problem des toxischen Verhaltens anzugehen.“
ToxMod ist die einzige proaktive, Voice-native Moderationslösung für Spiele. ToxMod basiert auf einer fortschrittlichen Technologie für maschinelles Lernen und wurde unter Berücksichtigung der Sicherheit und des Datenschutzes der Spieler entwickelt. ToxMod triagiert Voice-Chats, um schlechtes Verhalten zu erkennen, analysiert die Nuancen jeder Konversation, um die Toxizität zu bestimmen, und ermöglicht es den Moderatoren, schnell auf jeden Vorfall zu reagieren, indem sie relevanten und genauen Kontext liefern. Im Gegensatz zu reaktiven Meldesystemen, die sich darauf verlassen, dass die Spieler sich die Mühe machen, schlechtes Verhalten zu melden, ist ToxMod die einzige Sprachmoderationslösung in Spielen, die es den Studios ermöglicht, proaktiv auf toxisches Verhalten zu reagieren und eine Eskalation des Schadens zu verhindern.
Über Modulate
Modulate entwickelt intelligente Sprachtechnologie, die Online-Toxizität bekämpft und die Gesundheit und Sicherheit von Online-Communities erhöht. ToxMod, die proaktive Sprachmoderationsplattform von Modulate, versetzt Community-Teams in die Lage, fundierte Entscheidungen zu treffen und Spieler vor Belästigung, toxischem Verhalten oder noch heimtückischeren Schäden zu schützen – ohne sich auf ineffektive Spielerberichte verlassen zu müssen. ToxMod ist die einzige derzeit verfügbare Voice-Native-Moderationslösung und hat bereits Millionen von Audiostunden für AAA-Spielestudios, Indie-Entwickler und Konsolenplattformen gleichermaßen verarbeitet. Die fortschrittlichen Frameworks für maschinelles Lernen von Modulate haben Kunden dabei geholfen, Millionen von Spielern vor Online-Toxizität zu schützen, um sichere und integrative Räume für alle zu gewährleisten.
Besuchen Sie Modulate unter https://www.modulate.ai, um mehr zu erfahren, und folgen Sie Modulate auf LinkedIn und Twitter.