Q&A: la startup qui utilise l’IA pour protéger les enfants en ligne

L1ght utilise des algorithmes propriétaires fournissant une solution pour les réseaux sociaux, les applications de communication, les plates-formes de jeu et les fournisseurs d’hébergement pour identifier et éliminer bon nombre des dangers pour les enfants associés à la technologie numérique, tels que la cyberintimidation, le contenu nuisible, le discours de haine et les comportements prédateurs. La société a développé une technologie conçue pour détecter et prédire le contenu toxique dans le texte, l’audio, les vidéos ou les images en ligne.

Pour en savoir plus, Digital Journal s’est entretenu avec le PDG de L1ght, Zohar Levkovitz (qui se trouve également être juge sur la version israélienne de l’émission télévisée). Aquarium à requins).

Digital Journal: Dans quelle mesure un contenu en ligne est-il dangereux pour les enfants?

Zohar Levkovitz: Plus les enfants passent de temps sur les plateformes en ligne, plus ils sont exposés à la toxicité, aux abus et aux comportements prédateurs. Le nombre de jeunes qui considèrent le contenu dangereux comme un phénomène régulier est en constante augmentation: plus d’un adolescent sur trois a reçu des menaces en ligne et plus de la moitié a été victime d’un incident de cyberintimidation. 83% des jeunes souhaitent voir les réseaux sociaux lutter contre l’intimidation en ligne. De toute évidence, cela a également des conséquences hors ligne: 8% des 9-10 ans ont pensé ou tenté de se suicider.

Ces statistiques sont choquantes et ne font qu’empirer, et les grandes entreprises technologiques et les législateurs n’ont pas été en mesure d’inverser cette tendance profondément préoccupante. C’est pourquoi nous avons créé une plateforme basée sur l’IA capable d’identifier la cyberintimidation, le contenu nuisible, les discours de haine et les comportements prédateurs, et de donner aux réseaux sociaux et aux hébergeurs les outils pour éliminer la toxicité de leurs plateformes.

DJ: Pourquoi avez-vous développé L1ght?

Levkovitz: J’ai été personnellement exposé aux chiffres terrifiants que je viens de mentionner après avoir vécu en Californie, où l’automutilation des adolescents est à un niveau record. Beaucoup attribuent ces statistiques troublantes aux réseaux sociaux. Le fils de mon cofondateur a même été approché en ligne par un prédateur alors qu’il jouait à un jeu populaire.

Nous nous sommes alors rendu compte que les mesures existantes, qui réagissent à un comportement toxique après avoir été vu et signalé par des utilisateurs ou des modérateurs, n’éliminaient pas le problème à sa source. Nous voulons que les réseaux et les plateformes garantissent un environnement sûr et développons la technologie la plus avancée pour cela.

DJ: Comment fonctionne L1ght?

Levkovitz:L1ght est une startup anti-toxicité utilisant l’IA pour détecter et filtrer le contenu en ligne nuisible afin de protéger les enfants. L1ght fournit aux réseaux sociaux, aux hébergeurs, aux jeux multijoueurs et à d’autres plateformes une API. Notre produit se branche sur le back-end du client et travaille directement avec lui pour identifier et prévenir le contenu toxique sur ses plateformes. La capacité de nos algorithmes propriétaires à apprendre le contexte d’une conversation ou d’une interaction en ligne est un élément central de ce qui rend notre IA plus fiable, complexe et sophistiquée que les autres technologies actuellement disponibles. La plateforme analyse le texte aux côtés d’images, de vidéos et d’enregistrements vocaux pour détecter le contenu toxique. Nous pouvons même surveiller des actions comme si quelqu’un est renvoyé d’un chat en groupe à plusieurs reprises.

La nature précise des produits que nous déployons diffère selon les besoins du client. Par exemple, si nous travaillons avec un service de messagerie, nous pouvons analyser les communications pour identifier les comportements prédateurs, qu’il s’agisse de cyberintimidation ou de honte. Si nous travaillons avec une société d’hébergement, nous pouvons analyser des millions de sites Web pour identifier les types de contenu négatifs.

DJ: Comment avez-vous testé la technologie?

Levkovitz:Nous sommes dans une phase commerciale, donc il fonctionne en réalité avec une immense quantité de données réelles et avec des résultats réels pour les clients d’entreprise.

Mais avant cela – la recherche. Après deux ans de recherches approfondies avec une équipe de docteurs, de scientifiques des données et de cyber-experts de classe mondiale, nous avons pu développer des algorithmes qui pensent efficacement comme les enfants et leurs attaquants potentiels lorsqu’ils analysent le texte, les images, la vidéo, la voix et le son. pour identifier le contenu toxique en ligne.

DJ: Comment vous assurez-vous que L1ght reste à jour? A-t-il la capacité d’apprendre?

Levkovitz:Les algorithmes de L1ght apprennent constamment – ils exploitent l’intelligence (big data, deep learning) et les connaissances humaines pour analyser et prédire la toxicité en ligne avec une précision quasi-temps réel.

Ayant prouvé que le deep learning peut être une méthode beaucoup plus efficace pour identifier la toxicité que la pratique courante d’analyse par dictionnaire, nous prévoyons d’utiliser notre financement de démarrage nouvellement acquis pour étendre et améliorer nos capacités de prévision.

Nous voulons être en mesure de mettre un terme aux actes préjudiciables sur leur passage, avant que des dommages réels puissent être causés aux enfants. Nous prévoyons d’entrer dans une nouvelle phase de R&D afin d’améliorer les capacités de reconnaissance vocale de notre plateforme. Être capable de détecter avec précision la honte et l’intimidation à l’intérieur des canaux de discussion de jeu est essentiel pour protéger les enfants.

Enfin et surtout, nous sommes en train de créer une plate-forme de détection et de prédiction «à cycle complet», avec un système de modération extrêmement agile intégré. De cette façon, nos clients bénéficieront à la fois d’une détection proactive et d’une modération gérable. Le résultat sera une solution de bout en bout pour détecter et atténuer la toxicité en ligne.

DJ: Quelle est votre stratégie marketing?

Levkovitz:Nous avons de nombreuses stratégies discrètes, mais l’un des principaux canaux consiste à créer une notoriété massive de la marque, ainsi qu’à gagner un leadership éclairé dans les médias.

La toxicité en ligne est un problème sociétal majeur qui a été largement créé par les entreprises technologiques, et nous pensons que les entreprises technologiques doivent nettoyer le gâchis et aider à résoudre le problème qui se produit sur leur plate-forme.

Tout comme l’industrie automobile construit des voitures avec des ceintures de sécurité, nous, en tant qu’industrie, devons intégrer dans nos plates-formes les mesures de sécurité.

Les entreprises technologiques doivent être conscientes que pour résoudre ce problème, elles ont besoin d’une réponse globale qui intègre la sensibilisation des parents et une éducation approfondie des enfants sur les dangers potentiels sur Internet. L’intérêt et la participation des parents à l’activité en ligne de leurs enfants en sont un élément clé. La diffusion de ce message est la meilleure façon de protéger les enfants de la toxicité en ligne.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *