Découvrez comment un outil d’IA populaire permet de créer facilement des images trompeuses de personnalités politiques telles que Trump ou Biden. Plongez dans l’univers de la manipulation digitale et des risques associés à ces pratiques.
Des garde-fous facilement contournables
Les garde-fous d’un outil populaire d’intelligence artificielle générateur d’images peuvent être facilement contournés pour créer de fausses images des candidats à la présidentielle américaine. Récemment, un groupe de recherche a mené des tests démontrant cette faiblesse préoccupante.
Les inquiétudes autour de la campagne présidentielle
À quelques mois du duel entre Joe Biden et Donald Trump, de nombreux acteurs du secteur technologique s’inquiètent. En effet, les outils de l’IA générative, accessibles à n’importe qui, sont capables de produire de fausses images troublantes de réalité, ce qui pourrait perturber la campagne électorale.
Les tests du Center for Countering Digital Hate
Deux des grands modèles d’IA générateurs d’images, Midjourney et ChatGPT, dotés pourtant de garde-fous, ont été testés par l’organisation Center for Countering Digital Hate (CCDH), basée à Washington et au Royaume-Uni. Les résultats ont révélé une vulnérabilité préoccupante de ces systèmes.
Les résultats des tests
Midjourney a échoué dans 40% des cas à empêcher l’utilisateur de créer de toute pièce une fausse image d’un responsable politique, un chiffre qui grimpe à environ 50% pour Biden et Trump. Ce résultat, selon le rapport du CCDH, met en lumière l’échec fréquent des garde-fous de ce modèle.
En revanche, ChatGPT (OpenAI) a montré une performance nettement meilleure, échouant à bloquer ces créations dans seulement 3% des cas.
Des méthodes de contournement simples
La recherche démontre que, malgré les mesures de protection, Midjourney récemment bloqué les demandes de création d’images incluant Biden ou Trump. Cependant, il est possible de contourner ce blocage en accolé un simple signe de ponctuation à leur nom ou en les décrivant sans les nommer, selon le CCDH, qui dénonce un outil « bien trop facile à manipuler ».
Des incidents alarmants
En janvier, un incident notable a eu lieu avec un message diffusé par appels téléphoniques automatisés usurpant la voix du président Joe Biden. Ce message incitait les électeurs démocrates du New Hampshire à s’abstenir lors des primaires du parti, un événement qui a suscité une inquiétude à Washington.
Risques pour la démocratie
Les capacités de ces IA génératives à créer des images trompeuses représentent un risque sérieux pour la désinformation et la manipulation politique. Alors que la technologie continue de progresser, les moyens de prévention et d’éducation du public deviennent cruciaux pour préserver l’intégrité des processus démocratiques.