Spectrum Labs de démarrage de modération de contenu d’IA conversationnelle 32 millions de dollars – Voicebot.ai

le 24 janvier 2022 à 12h30

La start-up de modération de contenu IA Spectrum Labs a levé 32 millions de dollars lors d’un cycle de financement de série B dirigé par Intel Capital. La plate-forme de Spectrum détecte et répond en temps réel aux commentaires texte et vocaux dangereux et offensants afin que les communautés en ligne puissent établir la confiance et assurer la sécurité de leurs membres.

Détection du spectre

Spectrum Labs utilise la compréhension du langage naturel pour surveiller ce que les gens disent et tapent au sein des communautés en ligne. La plate-forme utilise la compréhension du langage naturel en temps réel pour les interactions textuelles et audio. La société affirme que son IA peut reconnaître et distinguer plus de 40 types de commentaires toxiques, y compris les menaces, les discours de haine, le matériel d’abus sexuel dans plus de 30 langues. L’IA de Spectrum écoute l’audio sans le transcrire, ce qui permet d’accélérer considérablement sa réponse et serait crucial pour fonctionner sur des plateformes audio sociales comme Clubhouse ou Twitter Spaces. L’IA peut repérer et répondre à un tel langage selon les règles du forum en moins d’une demi-seconde. Les réponses incluent l’émission d’un avertissement, la suppression d’un message de la vue publique ou l’expulsion de quelqu’un d’un serveur.

Chaque incident est signalé pour que des modérateurs humains l’évaluent et l’auditent. Les clients de Spectrum comprennent environ 20 plateformes majeures, y compris des sociétés de jeux comme Riot Games, des sites de rencontres comme Grindr et des services de médias sociaux comme Pinterest. Le nouvel argent servira à étendre la portée de l’entreprise et à apporter de nouvelles améliorations à la technologie qui alimente la plate-forme. Spectrum a levé environ 46 millions de dollars au total, dont une ronde de 10 millions de dollars à l’automne 2020.

« Notre IA peut être déployée très efficacement dans les langues, les comportements et les industries pour alimenter la croissance et renforcer la confiance grâce à des communautés plus sûres et plus inclusives », a expliqué le PDG de Spectrum Labs, Justin Davis. « Alors que nous vivons, travaillons et jouons de plus en plus sur Internet, les grandes entreprises réfléchissent de plus en plus à la manière de mieux comprendre, protéger et développer leurs communautés. Cet investissement mené par Intel Capital, la société qui donne les moyens à l’avenir de l’informatique, aidera Spectrum Labs à réaliser son ambition de permettre à chaque entreprise de disposer de l’infrastructure et de l’IA en temps réel et faciles à déployer, essentielles pour établir la confiance avec chaque personne, partout dans le monde. le monde, à chaque instant.

Modération de l’IA

Les conversations en ligne ont augmenté à la suite de la pandémie de COVID-19, mais cela n’a pas réduit les dangers possibles mis en évidence par la liste des interactions toxiques de Spectrum. L’IA peut être la meilleure solution pour trouver et répondre lorsqu’elles surviennent, car les modérateurs humains ne pourraient jamais suivre le volume des conversations en ligne. Par exemple, Microsoft a déposé un brevet l’année dernière pour une IA permettant de mesurer ce que les gens ressentent en fonction de leur voix et d’autres signaux dans le but de modérer le chat vocal sur ses serveurs de jeux.

Il existe également d’autres startups dans le domaine, telles que Modulate, dont l’outil ToxMod peut détecter et signaler les discours problématiques et toxiques dans le chat vocal des jeux vidéo en temps réel. ToxMod détecte et alerte les modérateurs lorsqu’il entend des insultes racistes, des menaces ou toute autre chose que les développeurs veulent savoir. L’IA utilise des indicateurs contextuels et émotionnels pour distinguer quand quelque chose dit atteint réellement le niveau d’un problème. Et tandis qu’Intel Capital dirige le tour de Spectrum, Intel, la société, a également travaillé sur un outil d’IA vocale pour filtrer le langage offensant et abusif lors des discussions vocales dans le jeu. Le programme Bleep applique l’IA sur les puces PC Intel en temps réel pour détecter et supprimer les insultes prononcées par un joueur avant qu’un autre ne l’entende.

Suivre @voicebotai   Suivre @erichschwartz

Intel développe un filtre de langue en temps réel pour les jeux en ligne

Le nouvel outil ToxMod AI surveille le chat du jeu pour détecter les discours toxiques

Microsoft brevète un système de détection d’émotions par IA pour Xbox

Eric Hal Schwartz est rédacteur en chef et producteur de podcasts pour Voicebot.AI. Eric est un écrivain et éditeur professionnel depuis plus d’une douzaine d’années, spécialisé dans les histoires sur la façon dont la science et la technologie se croisent avec les entreprises et la société. Eric est basé à New York.

Article précédent

Google accélère le développement de casques AR : rapport

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *