Qu'est-ce qu'un Deepfake et devrais-je m'inquiéter?
Nous avons tendance à faire confiance au contenu des enregistrements vidéo et audio. Mais avec l'IA, le visage ou la voix de n'importe qui peut être recréé avec une précision extrême. Le produit est un deepfake, une usurpation d'identité qui peut être utilisé pour les mèmes, la désinformation ou le porno.
Un coup d'oeil aux deepfakes de Nicholas Cage ou PSA deepfake de Jordan Peele indique clairement que nous avons affaire à une nouvelle technologie étrange. Ces exemples, bien que relativement inoffensifs, soulèvent des questions sur l’avenir. Pouvons-nous faire confiance à la vidéo et à l'audio? Pouvons-nous tenir les gens responsables de leurs actions à l'écran? Sommes-nous prêts pour les deepfakes?
Deepfakes sont nouveaux, faciles à préparer et à croissance rapide
La technologie Deepfake n’a que quelques années, mais elle est déjà devenue une chose à la fois captivante et troublante. Le terme «deepfake», qui a été inventé dans un fil Reddit en 2017, est utilisé pour décrire la reconstitution de l'apparence ou de la voix d'un être humain grâce à l'intelligence artificielle. De façon surprenante, n'importe qui peut créer un deepfake avec un PC de merde, des logiciels et quelques heures de travail.
Comme pour toute nouvelle technologie, il existe une certaine confusion autour de deepfakes. La vidéo «ivre Pelosi» est un excellent exemple de cette confusion. Deepfakes est construit par AI et conçu pour imiter des personnes. La vidéo «dunk Pelosi», qui a été qualifiée de deepfake, est en réalité une vidéo de Nancy Pelosi qui a été ralentie et corrigée. d'ajouter un effet d'élocution.
C’est aussi ce qui distingue Deepfakery de Carrie Fisher dans CGI dans Star Wars: Rogue One. Alors que Disney dépensait des tonnes d’argent pour étudier le visage de Carrie Fisher et le recréer à la main, un nerd équipé d’un logiciel deepfake peut faire le même travail gratuitement.en un seul jour. L'intelligence artificielle rend le travail incroyablement simple, peu coûteux et convaincant.
Comment faire un Deepfake
À l'instar d'un élève dans une salle de classe, l'IA doit «apprendre» à exécuter la tâche qui lui est destinée. Pour ce faire, il utilise un processus d’essais et d’erreur brutaux, généralement appelé apprentissage machine ou apprentissage en profondeur . Une intelligence artificielle conçue pour compléter le premier niveau de Super Mario Bros, par exemple, jouera au jeu encore et encore jusqu'à ce qu'il trouve le meilleur moyen de gagner. La personne qui conçoit l'intelligence artificielle doit fournir des données pour faire avancer les choses, ainsi que quelques «règles» lorsque les choses tournent mal. En dehors de cela, l'IA fait tout le travail.
Il en va de même pour la récréation faciale profonde. Mais bien sûr, recréer des visages n’est pas la même chose que battre un jeu vidéo. Si nous devions créer un jeu vidéo de Nicholas Cage hébergeant l'émission de Wendy Williams, voici ce dont nous aurions besoin:
- Une vidéo de destination : à partir de maintenant, deepfakes fonctionne mieux avec des vidéos de destination claires et propres. C'est pourquoi certains des plus convaincants sont ceux des politiciens. ils ont tendance à rester immobiles sur un podium sous un éclairage constant. Nous avons donc besoin d’une vidéo de Wendy assise et parlant.
- Deux jeux de données : Pour que les mouvements de la bouche et de la tête soient précis, nous avons besoin d'un jeu de données du visage de Wendy Williams et d'un jeu de données du visage de Nicholas Cage. Si Wendy regarde à droite, nous avons besoin d’une photo de Nicholas Cage regardant à droite. Si Wendy ouvre la bouche, nous avons besoin d’une photo de Cage en train d’ouvrir la bouche.
Après cela, nous avons laissé l'IA faire son travail. Il essaie de créer le deepfake encore et encore, tirant des leçons de ses erreurs en cours de route. Simple, non? Eh bien, une vidéo du visage de Cage sur le corps de Wendy William ne va tromper personne, alors comment pouvons-nous aller un peu plus loin?
Les imitations les plus convaincantes (et potentiellement les plus nocives) sont les imitations. Deepfake populaire d' Obama par Jordan Peele est un bon exemple. Faisons donc l'une de ces imitations. Créons un faux-semblant de Mark Zuckerberg déclarant sa haine des fourmis - cela semble convaincant, n'est-ce pas? Voici ce dont nous avons besoin:
- Une vidéo de destination : Il peut s'agir d'une vidéo de Zuckerberg lui-même ou d'un acteur qui ressemble à Zuckerberg. Si notre vidéo de destination est un acteur, nous collerons simplement le visage de Zuckerberg sur l'acteur.
- Données photographiques : Nous avons besoin de photos de Zuckerberg parlant, clignotant et bougeant la tête. Si nous superposons son visage sur un acteur, nous aurons également besoin d'un jeu de données des mouvements du visage de l'acteur.
- La voix du Zuck : Notre deepfake doit ressembler au Zuck. Nous pouvons le faire en enregistrant un imitateur ou en recréant la voix de Zuckerberg avec AI. Pour recréer sa voix, nous passons simplement des échantillons audio de Zuckerberg via une IA comme Lyrebird , puis nous écrivons ce que nous voulons qu'il dise.
- Intelligence artificielle synchrone : puisque nous ajoutons la voix du faux Zuckerberg à notre vidéo, une intelligence artificielle synchronisée doit s'assurer que les mouvements du visage profond correspondent à ce qui est dit.
Nous n'essayons pas de minimiser le travail et l'expertise nécessaires à la deepfakery. Mais comparé au travail d'un million de dollars réalisé par CGI qui a ramené Audrey Hepburn d'entre les morts, deepfakes sont une promenade dans le parc. Et bien que nous n'ayons pas encore craqué pour un deepfake politique ou une célébrité, même les deepfakes les plus pourris et les plus évidents ont causé un réel préjudice.
CONNEXES: Le problème de l'IA: les machines apprennent des choses, mais ne peuvent pas les comprendre
Deepfakes a déjà causé un préjudice réel
À l'heure actuelle, la majorité des deepfakes ne sont que des mèmes Nicholas Cage, des annonces de service public et du porno de célébrités effrayant. Ces points de vente sont relativement inoffensifs et faciles à identifier, mais dans certains cas, les deepfakes sont utilisés avec succès pour diffuser des informations erronées et nuire à la vie des autres.
En Inde, les nationalistes hindous utilisent deepfakes pour discréditer et inciter à la violence contre les femmes journalistes. En 2018, une journaliste du nom de Rana Ayyub a été victimed'une telle campagne de désinformation, qui incluait une vidéo en faux-semblant de son visage superposée à une vidéo pornographique. Cela a conduit à d'autres formes de harcèlement en ligne et à la menace de violence physique .
Aux États-Unis, la technologie deepfake est souvent utilisée pour créer du porno vengeance non consensuel. Comme indiqué par Vice , de nombreux utilisateurs du forum Reddit Deepfakes, désormais interdit, ont demandé comment créer des deepfakes d'anciennes copines, de coeurs, d'amis et de camarades de classe (oui, pornographie enfantine). Le problème est si énorme que Virginia interdit désormais toutes les formes de pornographie non consensuelle, y compris deepfakes .
À mesure que les deepfakes deviendront de plus en plus convaincants, la technologie sera sans aucun doute utilisée à des fins plus douteuses. Mais il y a une chance que nous réagissions de manière excessive, non? N'est-ce pas l'étape la plus naturelle après Photoshop?
Deepfakes sont un prolongement naturel des images rédigées
Même à leur niveau le plus élémentaire, les deepfakes sont troublants. Nous faisons confiance aux enregistrements vidéo et audio pour capturer les paroles et les actions des gens sans parti pris ni désinformation. Mais d'une certaine manière, la menace de deepfakes n'est pas nouvelle du tout. Cela existe depuis que nous avons commencé à utiliser la photographie.
Prenons, par exemple, les quelques photographies d’Abraham Lincoln. La majorité de ces photographies (y compris les portraits sur le sou et le billet de cinq dollars) ont été falsifiées par un photographe nommé Mathew Brady afin d'améliorer l'apparence grêle de Lincoln (plus précisément son cou mince). Certains de ces portraits ont été montés d'une manière qui rappelle les deepfakes, la tête de Lincoln se superposant aux corps d'hommes «forts» comme Calhoun (l'exemple ci-dessous est une eau-forte, pas une photo).
Cela ressemble à une sorte de publicité bizarre, mais pendant les années 1860, la photographie véhiculait une certaine «vérité» que nous réservons maintenant pour les enregistrements vidéo et audio. C'était considéré comme l'opposé de l'art - une science . Ces photos ont été trafiquées pour discréditer intentionnellement les journaux qui critiquaient Lincoln pour son corps faible. En fin de compte, cela a fonctionné. Les Américains ont été impressionnés par la silhouette de Lincoln, et Lincoln lui-même a affirmé que les photos de Brady « m'ont fait président ».
Le lien entre deepfakes et la retouche photo du XIXe siècle est étrangement réconfortant. Cela nous offre le récit selon lequel, bien que cette technologie ait des conséquences graves, elle n’est pas totalement hors de notre contrôle. Mais, malheureusement, ce récit peut ne pas durer très longtemps.
Nous ne pourrons jamais repérer Deepfakes pour toujours
Nous avons l'habitude de voir de fausses images et vidéos avec nos yeux. Il est facile de regarder un portrait de famille de Joseph Goebbels et de dire : «Il y a quelque chose d'étrange à propos de ce type qui se trouve à l'arrière.» Un coup d'œil sur les photos de propagande nord-coréenne montre qu'il est évident que, sans tutoriels YouTube, les gens craignent Photoshop. Et aussi impressionnant que soient les deepfakes, il est toujours possible de repérer un deepfake à vue seule.
Mais nous ne pourrons plus repérer les deepfakes plus longtemps. Chaque année, les deepfakes deviennent plus convaincants et encore plus faciles à créer. Vous pouvez faire un deepfake avec une seule photo, et vous pouvez utiliser AI comme Lyrebird pour cloner des voix en moins d’une minute. Les deepfakes high-tech combinant de la fausse vidéo et de l'audio sont incroyablement convaincants, même lorsqu'ils sont conçus pour imiter des personnages reconnaissables tels que Mark Zuckerberg..
Dans le futur, nous utiliserons peut-être l'IA, des algorithmes et la technologie de la blockchain pour lutter contre les deepfakes. Théoriquement, l'IA pourrait numériser des vidéos pour rechercher des « empreintes digitales » profondes , et la technologie blockchain installée sur les systèmes d'exploitation pourrait signaler les utilisateurs ou les fichiers ayant touché un logiciel deepfake.
Si ces méthodes anti-deepfake vous semblent stupides, rejoignez le club. Même les chercheurs en intelligence artificielle doutent qu'il existe une véritable solution au deepfakes. Le logiciel de détection s'améliorant, il en sera de même pour Deepfakes. Finalement, nous atteindrons un point où il sera impossible de détecter deepfakes, et nous aurons bien plus de soucis que de faux pornos de célébrités et de vidéos de Nicolas Cage.