- Story
«Faisons preuve de défiance pour nous faire une opinion»
15.10.2024 L’IA génère des vidéos contrefaites (aussi appelées hypertrucages ou deepfakes) de plus en plus réalistes. Reinhard Riedl, chercheur à la BFH, explique comment la société peut faire face à ce phénomène.
L’essentiel en bref
- Identifier avec certitude un deepfake comme tel est impossible.
- En cas de doute, le contexte d’un deepfake peut aider à y voir clair.
- La compétence numérique essentielle dans la gestion des deepfakes est la pensée critique.
Sommes-nous en mesure d’identifier les deepfakes?
Non. Et si nous pensons pouvoir le faire, nous nous leurrons. Des études révèlent que l’identification ou non d’un tel trucage est purement aléatoire. Nous devons apprendre à gérer les incertitudes qui en découlent.
Que faut-il entendre par là? Faudra-t-il se demander pour chaque image, chaque vidéo et chaque texte: «Est-ce réel ou artificiel?»
Pour nous prémunir, nous devons cultiver une sorte de défiance généralisée. En d’autres termes: nous devons toujours envisager la possibilité qu’un artéfact puisse être un deepfake.
Le caractère sensible et la portée du trucage dépendent toutefois du contexte. En Suisse, par exemple, les conseillers fédéraux et conseillères fédérales voyagent généralement seul-e-s et en transports publics, alors que dans d’autres situations, des gardes du corps se tiennent à leurs côtés. Cela signifie que le contexte nous donne des indications sur le degré de vigilance dont il convient de faire preuve.
Selon vous, comment devons-nous (ré)agir?
Je vais être direct, au risque de décevoir: il n’existe pas de solution miracle! En tant que chercheurs et chercheuses, nous pouvons présenter des exemples, partager notre expérience, mais pas servir de solution toute prête sur un plateau. Chacun doit trouver sa propre solution.
Pourquoi n’existe-t-il aucune solution miracle pour les deepfakes?
C’est simple: lorsqu’ils sont ingénieux, c’est principalement en ciblant nos faiblesses que les deepfakes nous mystifient. Chaque individu présentant un profil de risque différent, c’est individuellement qu’il s’agit de déterminer où se situent nos vulnérabilités. Nous devons, en outre, toujours être conscient‑e‑s des situations et des contextes à risque. Et si nous devions être dupé‑e‑s, il nous faut être prêt‑e‑s à le reconnaitre.
Qu’est-ce qu’un deepfake et que sont les médias synthétiques?
Les deepfakes sont des médias synthétiques conçus par l’IA, des créations multimédias basées sur des contenus existants d’origine humaine.
L’IA se fonde pour cela sur des données existantes de personnes, par exemple des séquences vidéo. Elle les transforme ensuite pour créer de nouveaux artéfacts multimédias. Leur contenu est fictif, mais l’apparence, les mouvements et le timbre de la voix des personnes «copiées» correspondent à s’y méprendre à l’original. Ils paraissent donc authentiques.
Si les termes «médias synthétiques» et «deepfake» désignent la même réalité, ils se différencient toutefois du point de vue de leur connotation: les deepfakes sont généralement perçus de manière négative, tandis que «médias synthétiques» sonne plus neutre.
Cela augure de sombres perspectives…
Je relativiserais. En vérité, il n’y a qu’un petit nombre de facteurs typiquement humains qui nous mettent dans l’embarras. Ainsi, on a tendance à croire un message s’il confirme notre vision du monde ou si, en tant que scientifique élaborant une nouvelle théorie, elle nous fournit la pièce manquante du puzzle.
Avant de croire une chose, on devrait toujours interroger et s’interroger, et non accepter les informations à leur valeur faciale. C’est-à-dire faire preuve d’esprit critique. À plus forte raison lorsqu’il est question de deepfakes et d’IA. ChatGPT est extrêmement révélateur à cet égard, car il divague très souvent. En raisonnant de manière critique, on reconnait plus facilement si l’outil fournit des informations fiables ou s’il nous mène en bateau.
Les deepfakes pourraient-ils être utilisés dans un but positif?
Oui, absolument. Je pense spontanément à la création de matériel pédagogique personnalisé dans les établissements d’enseignement et à de multiples applications dans l’industrie cinématographique. Mais l’utilisation délibérée de médias synthétiques peut être intéressante également dans le milieu de l’art, du théâtre et de la musique.
Notre étude révèle que certains artistes envisagent même l’IA comme un partenaire ou un successeur. Dernièrement, nous avons par exemple travaillé à la création de deepfakes de pianistes célèbres. Ces deepfakes pourraient jouer n’importe quel morceau dans le style de tel-le ou tel-le pianiste, ce qui se révèlerait très intéressant d’un point de vue artistique, mais aussi pour la formation des futur‑e‑s pianistes.
Un deepfake qui montre quelque chose dont nous savons que c’est faux peut malgré tout engendrer des dégâts.
À partir de quel moment les deepfakes sont-ils nuisibles?
Lorsqu’ils sont utilisés pour tromper. Un deepfake qui montre quelque chose dont nous savons que c’est faux peut malgré tout faire des dégâts, simplement par le fait qu’il associe des éléments qui ne devraient pas cohabiter.
Citons ici l’exemple d’une séquence pornographique avec le visage d’une star hollywoodienne, d’une femme politique ou même d’une ex-petite amie. Le préjudice est réel bien que nous sachions – ou justement parce que nous savons – que la personne en question n’a jamais tourné un tel clip. Ce n’est donc pas seulement lorsque le trucage est parfait qu’il devient dangereux.
Que pensez-vous du cas d’une grande chaine de magasins qui a réalisé une campagne avec des mannequins IA et non plus avec des mannequins humains?
Cela montre que nous devons apprendre à gérer les identités artificielles. Notre expérience du monde s’enrichit. Il existe aujourd’hui des choses que Shakespeare n’aurait pas pu imaginer. Le Japon connait ainsi depuis longtemps les icônes artificielles dans la pop.
Le phénomène des deepfakes est cependant assez nouveau pour notre société. Nous ne savons par exemple pas encore comment réagir lorsqu’un enfant est fan d’un personnage artificiel. Il importe, dans ce cas, de lui faire remarquer qu’un personnage artificiel n’est pas un être humain.
Vous déclarez que nous ne sommes pas en mesure d’identifier les deepfakes. Mais est-ce vraiment une nécessité?
Selon moi, dans le domaine de l’art ou de la formation, nous devrions indiquer explicitement le caractère artificiel des deepfakes. Mon point de vue est aligné sur un vieux principe du théâtre: tout est permis, à condition de rester transparent. Le public doit pouvoir se rendre compte qu’il est manipulé.
Concrètement, cela signifie que les deepfakes devraient être déclarés. De même, si l’on pioche dans l’univers visuel, sonore ou textuel d’autres personnes, il convient de le signaler, par souci d’intégrité.