Publicité
Intelligence artificielle
Vrai problème
Par
Partager cet article
Intelligence artificielle
Vrai problème
Lorsque le Government Information Service a publié un communiqué émanant du ministère de la Technologie, qui met en garde contre la circulation d’une bande sonore parlant de la création d’autres bandes sonores utilisant l’intelligence artificielle (IA) jeudi, il a fallu du temps pour comprendre de quoi il s’agissait car la «tape» en question n’avait pas encore atteint le grand public. Peu après, Sherry Singh est venu de l’avant pour tout nier, affirmant que c’était une fabrication. Dès lors, les débats sur l’utilisation de l’IA sont à nouveau sur le tapis.
Est-ce une bande sonore qui a été enregistrée ? Sherry Singh a été catégorique : il n’a jamais eu cette conversation. Donc, était-ce des voice actors ? Ou un logiciel utilisant l’IA qui a été utilisé pour créer la conversation ? Sollicité, David De Gaye, consultant en stratégie digitale qui oeuvre également pour donner aux humains le pouvoir transformateur de l’IA, confirme que les avancées récentes dans ce domaine ont radicalement amélioré la capacité à générer des vidéos réalistes, parfois à partir d’une simple photo et de quelques secondes d’enregistrement vocal. «Par exemple, certaines plateformes peuvent désormais créer des voix synthétiques étonnamment convaincantes avec un enregistrement minimal. Ces outils permettent non seulement de générer des voix rapidement, mais aussi de les personnaliser en ajustant le ton, la hauteur et l’accentuation pour correspondre à l’original», avance-t-il. Ces plateformes donnent la possibilité de choisir parmi une gamme de voix existantes, voire même de créer une nouvelle voix, en téléchargeant un simple extrait audio. Ish Sookun, System Architect à La Sentinelle Ltd, parle de technologies similaires. «Il y a des logiciels qui analysent la voix d’une personne. Par la suite, elle peut la calquer sur une conversation pré-enregistrée pour faire croire que c’est la voix de la première personne qui tient la conversation», explique-t-il.
Avec la rapidité des avancées technologiques, il a fallu trouver des moyens pour démêler le vrai du faux. David De Gaye rappelle la fois où un employé d’une multinationale avait été piégé par des deepfakes en temps réel lors d’un appel vidéo. Il avait transféré USD 25 millions à la suite de cet appel, où il avait l’impression de parler à ses collègues, dont son Chief Finance Officer. Mais tous étaient des créations de l’IA. Depuis, des outils ont été développés pour identifier les manipulations par IA dans les vidéos et audios. «Ces technologies utilisent des algorithmes sophistiqués, capables de déceler des incohérences ou des artefacts invisibles ou inaudibles pour les humains, offrant ainsi une défense contre les abus de ces nouvelles formes de médias», explique David De Gaye. Cependant, ce type de logiciels n’est pas facilement accessible, rappelle. «Certes, ces outils ne sont pas courants. On ne les retrouve pas gratuitement sur le net, par exemple», souligne-t-il. L’un de ces outils analyse la qualité de la voix. «Lorsqu’une voix est artificiellement créée, elle est synthétique. C’est ce que ce logiciel arrive à détecter» dit Ish Sookun. Il y a aussi d’autres moyens. Dans les informations contenues dans les propriétés d’un fichier audio ou vidéo, il est possible de savoir si le fichier a été créé par une IA ou pas.
La vieille histoire des bandes sonores en politique
Les histoires de bandes sonores dans les campagnes électorales ne sont pas nouvelles. En 2014, lors d’un meeting de l’alliance Parti travailliste-Mouvement militant mauricien, la bande sonore d’une conversation enregistrée chez la famille Jugnauth avait été diffusée. À l’époque, il n’y avait pas d’intelligence artificielle et la véracité de l’enregistrement n’était pas au centre des débats. Après les élections, Madhukar Ramnarain, qui était considéré comme un proche des Jugnauth, avait été arrêté car il était soupçonné d’avoir enregistré la conversation privée. Mais, par la suite, la charge provisoire contre son épouse et lui-même avait été rayée. Cependant, d’autres internautes, qui avaient relayé la bande sonore sur le net, avaient été condamnés pour breach of Information and Communication Technologies Act (ICTA).
Dix ans après, c’est une autre étape qui a été franchie dans la guerre informatique de la campagne électorale. Avec l’apparition de l’IA, même sans enregistrement, il est possible de créer des conversations. Dans son communiqué, le ministère de la Technologie rappelle que toute manipulation et diffusion de données illégalement obtenues vont à l’encontre de la Cybersecurity and Cybercrime Act et de l’ICTA.
Publicité
Les plus récents