Une start-up de clonage audio basée sur l’IA donne la parole au chatbot Einstein

Vous aurez besoin de piquer vos oreilles pour cette tranche de deepfakery émergeant du monde farfelu des médias synthétisés: une version numérique d’Albert Einstein – avec une voix synthétisée qui a été (re) créée à l’aide de la technologie de clonage de voix AI en s’appuyant sur des enregistrements audio de la voix réelle du célèbre scientifique.

La startup derrière le deepfake audio de la «vallée étrange» d’Einstein est Aflorithmic (dont nous avons couvert le cycle de départ en février).

Alors que le moteur vidéo qui alimente le personnage 3D qui rend les composants de cette version «humaine numérique» d’Einstein est l’œuvre d’une autre société de médias synthétisés – UneeQ – qui héberge la version du chatbot interactif sur son site Web.

Selon Alforithmic, l ’« Einstein numérique »se veut une vitrine de ce qui sera bientôt possible avec le commerce social conversationnel. Ce qui est une façon élégante de dire que les deepfakes qui font comme des personnages historiques essaieront probablement de vous vendre de la pizza assez tôt, comme l’ont prévenu les observateurs de l’industrie.

La startup dit également qu’elle voit un potentiel éducatif pour amener des personnages célèbres et décédés depuis longtemps à une «vie» interactive.

Ou bien, une approximation artificielle de celui-ci – la «vie» étant purement virtuelle et la voix de Digital Einstein n’étant pas non plus un clone purement technologique; Alforithmic dit qu’il a également travaillé avec un acteur pour faire de la modélisation de la voix pour le chatbot (parce que comment cela allait-il permettre à Digital Einstein de dire des mots que la vraie affaire n’aurait même jamais rêvé de dire – comme, euh, «  blockchain ‘?). Il y a donc un peu plus que de l’artifice de l’IA ici aussi.

«Il s’agit de la prochaine étape importante dans la présentation de la technologie pour rendre possible le commerce social conversationnel», nous a dit Matt Lehmann, COO d’Alforithmic. «Il y a encore plus d’un défaut à aplanir ainsi que des défis technologiques à surmonter, mais dans l’ensemble, nous pensons que c’est un bon moyen de montrer où cela va.»

Dans un article de blog discutant de la manière dont elle a recréé la voix d’Einstein, la startup écrit sur les progrès qu’elle a réalisés sur un élément difficile associé à la version du chatbot – affirmant qu’elle était capable de réduire le temps de réponse entre le transfert du texte d’entrée du moteur de connaissances informatiques à son API. capable de restituer une réponse exprimée, passant de 12 secondes initiales à moins de trois (ce qu’il appelle «en temps quasi réel»). Mais c’est encore assez de retard pour s’assurer que le bot ne peut pas éviter d’être un peu ennuyeux.

Les lois qui protègent les données et / ou l’image des personnes, quant à elles, posent un défi juridique et / ou éthique à la création de tels «clones numériques» d’humains vivants – du moins pas sans demander (et probablement payer) d’abord.

Bien sûr, les personnages historiques ne sont pas là pour poser des questions délicates sur l’éthique de l’appropriation de leur ressemblance pour vendre des choses (ne serait-ce que la technologie de clonage elle-même, à ce stade naissant). Bien que les droits de licence puissent toujours s’appliquer – et le font en fait dans le cas d’Einstein.

«Ses droits appartiennent à l’Université hébraïque de Jérusalem, qui est partenaire de ce projet», déclare Lehmann, avant de «céder à l’élément de licence d’artiste de la performance de« clonage de voix »d’Einstein. «En fait, nous n’avons pas cloné la voix d’Einstein en tant que telle, mais nous avons trouvé l’inspiration dans les enregistrements originaux ainsi que dans les films. Le doubleur qui nous a aidés à modéliser sa voix est lui-même un grand admirateur et sa performance a très bien captivé le personnage d’Einstein, avons-nous pensé.

Il s’avère que la vérité sur les «mensonges» de haute technologie est en elle-même un peu une couche de gâteau. Mais avec deepfakes, ce n’est pas la sophistication de la technologie qui compte autant que l’impact du contenu – et cela dépendra toujours du contexte. Et aussi bien (ou mal) que soit le faux, la façon dont les gens réagissent à ce qu’ils voient et entendent peut changer tout le récit – d’une histoire positive (médias synthétisés créatifs / éducatifs) à quelque chose de profondément négatif (deepfakes alarmants et trompeurs).

Les préoccupations concernant le potentiel des deepfakes à devenir un outil de désinformation augmentent également, à mesure que la technologie devient plus sophistiquée – contribuant à favoriser la régulation de l’IA en Europe, où sont basées les deux principales entités responsables de «Digital Einstein».

Plus tôt cette semaine, un projet de fuite d’une proposition législative à venir sur les règles paneuropéennes pour les applications «à haut risque» de l’intelligence artificielle comprenait des sections spécifiquement destinées aux deepfakes.

Dans le cadre de ce plan, les législateurs semblent prêts à proposer des «règles de transparence harmonisées» pour les systèmes d’IA conçus pour interagir avec les humains et ceux utilisés pour générer ou manipuler du contenu image, audio ou vidéo. Ainsi, un futur chatbot Digital Einstein (ou argumentaire de vente) devra probablement se déclarer artificiel avant de commencer à le simuler – pour éviter que les internautes n’aient à appliquer un virtuel. Voight-Kampff test.

Pour l’instant, cependant, le chatbot interactif Digital Einstein aux sons érudits a encore suffisamment de retard pour donner le jeu. Ses créateurs étiquettent également clairement leur création dans l’espoir de vendre leur vision du commerce social axé sur l’IA à d’autres entreprises.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *