Les éthiciens de la technologie tirent la sonnette d’alarme depuis un certain temps maintenant, et le groupe de réflexion technologique Future Advocacy a décidé de montrer à quel point cette technologie peut être possible et dommageable. Ils ont publié une fausse vidéo de campagne qui montre que les deux candidats aux prochaines élections britanniques se soutiennent mutuellement.
Rationnellement, nous savons que Jeremy Corbyn et Boris Johnson ne se soutiendraient pas mutuellement pour le bureau qu’ils convoitent tous les deux, mais nos yeux nous trompent lorsque nous regardons une vidéo comme celle-ci. Entre les mains de Future Advocacy, la vidéo se révèle être un faux. Mais cette technologie pourrait être utilisée par de mauvais acteurs pour perturber les élections dans le monde entier.
Contrairement au magicien qui garde son tour de main avec soin, Future Advocacy révèle comment le tour a été tourné. Tout d’abord, ils choisissent la vidéo source, ce clip qu’ils utiliseraient comme image de base et mouvement de la personne qu’ils vont simuler. Ensuite, ils analysent les mots que la personne utilise le plus et écrivent le script qui ressemble à ce que la personne dirait. Après cela, la voix est posée et alignée avec les mouvements.
Le mois dernier, le Sénat américain a adopté la Deepfake Report Act, qui «exigerait que le Department of Homeland Security publie un rapport annuel sur l’utilisation de la technologie deepfake qui devrait inclure une évaluation de la façon dont les gouvernements étrangers et les groupes nationaux utilisent deepfakes pour nuire à la sécurité nationale. «
Le Sénat est devenu plus préoccupé par le problème plus tôt cette année lorsqu’une vidéo parodique de Nancy Pelosi a été publiée, ce qui la rendait ivre. Cette vidéo n’était pas vraiment un faux, mais une vidéo réelle a ralenti pour la faire paraître lente. Mais cela a suffi à semer la peur dans le cœur des législateurs.
Bien que la loi sur le rapport Deepfake soit une étape vers la compréhension de la façon dont la technologie est utilisée, ce qu’il nous faut, ce sont des outils pour la détecter. Facebook, toujours à l’honneur quand il s’agit de haïr la grosse technologie, a consacré 10 millions de dollars à l’étude des deepfakes.
L’agence de recherche avancée sur les projets de défense du Pentagone (DARPA) a recherché des contrefaçons profondes, apprenant d’abord comment les fabriquer, afin d’apprendre à les détecter. La création de contrefaçons profondes dépend entièrement de l’analyse informatique, tout comme la détection des contrefaçons.
Il y a fort à parier que, tandis que Future Advocacy et le Pentagone travaillent à la fois sur la sensibilisation et sur la manière de lutter contre ce problème, respectivement, ceux qui semeraient les graines du chaos dans le monde entier travaillent tout aussi dur pour les rendre indétectables.
Le concept même de réalité est menacé. Les lois sur la diffamation et la diffamation pourraient punir ceux qui pourraient légitimement faire de fausses vidéos de campagne comme celle évoquée par Future Advocacy. Mais où cela nous mène-t-il en ce qui concerne ces vidéos qui ne sont pas détectées? Même lorsqu’une vidéo, comme celle de Pelosi, s’est révélée fausse, le mal était déjà fait. Ce clip est devenu viral avant que quiconque ne pose une question, probablement avant même que Pelosi ne l’ait vue elle-même.
Plus récemment encore, des amis des Royals ont émis l’hypothèse que la tristement célèbre photo du prince Andrew avec son accusatrice de 17 ans, Virginia Roberts Giuffre est «trafiquée» et que «ses doigts semblent trop joufflus».
Giuffre a répondu en disant: « Cette photo a été vérifiée comme un original et elle a depuis été remise au FBI et ils n’ont jamais contesté que c’était une fausse photo. Je sais que c’est réel. Il doit s’arrêter avec toutes ces excuses boiteuses. Nous en avons marre de l’entendre. Ceci est une vraie photo. C’est la toute première fois que je le rencontre. «
Comme l’illustre cet exemple récent, les implications vont au-delà de tromper les électeurs. Les allégations de falsification profonde pourraient être utilisées pour couvrir des crimes ou dans d’autres cas, impliquer faussement des personnes dans des crimes.
Si le but de ceux qui font des deepfakes est de créer le chaos et la confusion aux États-Unis et au Royaume-Uni, ils prouvent qu’ils sont déjà capables de réussir. Nous devons maintenir notre vigilance, notre bonne humeur et notre méfiance à l’égard de tout ce qui scintille sur nos écrans. Cependant, cette méfiance, cette incapacité à faire confiance à des sources fiables, est le chaos, la confusion et le désordre que les mauvais acteurs ont engendrés. Lorsque nous ne savons pas à qui faire confiance, lorsque nous ne pouvons pas en croire nos propres yeux, lorsque toutes les sources imaginables de données et d’informations doivent être interrogées, où cela nous mène-t-il?
À bien des égards, les humains font des jugements instantanés. C’est peut-être un vestige d’un instinct de survie, d’une impulsion de combat ou de fuite. Mais penser sur nos pieds, faire des déterminations rapides, c’est comment nous traversons la vie. Nous ne remettons pas tout en question, car il n’y a tout simplement pas assez de temps dans la journée. Si nous constatons que nous ne pouvons pas faire confiance à de nouvelles sources d’informations, nous pouvons verrouiller nos opinions, les solidifier et commencer à croire que tout ce qui les contredit est faux.
La partie la plus difficile, pour chaque individu, à traiter et à gérer cette technologie émergente, n’est pas de savoir à quelles données entrantes faire confiance. Cela signifie que lorsque nous lisons ou voyons quelque chose qui confirme un point de vue qui nous est cher, nous devons le questionner, le contrarier, l’enquêter. Nous devons nous assurer que nous savons pourquoi nous croyons ce que nous croyons, et ne pas supposer la vérité simplement parce qu’elle nous semble juste (ou mauvaise). Alors que les deepfakes menacent notre réalité dans tous les aspects, de l’éducation au crime en passant par la démocratie, nous devons rester conscients de ce qui nous est lancé. Sinon, ça va nous renverser.