Google teste un filigrane numérique permettant de repérer les images produites par l’intelligence artificielle (IA) afin de lutter contre la désinformation.

Développé par DeepMind, la branche IA de Google, SynthID identifiera les images générées par des machines.

Il fonctionne en intégrant des modifications de pixels individuels dans les images, de sorte que les filigranes sont invisibles à l’œil humain, mais détectables par les ordinateurs.

DeepMind a toutefois précisé qu’il n’était pas « à l’épreuve des manipulations extrêmes d’images ».

À mesure que la technologie évolue, il devient de plus en plus difficile de faire la différence entre des images réelles et des images générées artificiellement, comme le montre le quiz AI or Real de BBC Bitesize.

Les générateurs d’images par IA sont devenus monnaie courante, l’outil populaire Midjourney comptant plus de 14,5 millions d’utilisateurs.

Ils permettent de créer des images en quelques secondes en saisissant de simples instructions textuelles, ce qui soulève des questions sur les droits d’auteur et la propriété dans le monde entier.

Google possède son propre générateur d’images, appelé Imagen, et son système de création et de vérification des filigranes ne s’appliquera qu’aux images créées à l’aide de cet outil.

Lire aussi  Sous le radar : Huawei ose-t-il défier les USA avec des usines clandestines?

Invisible

Le filigrane est généralement un logo ou un texte ajouté à une image pour en indiquer la propriété, mais aussi pour rendre plus difficile la copie et l’utilisation de l’image sans autorisation.

C’est le cas des images utilisées sur le site web de BBC News, qui comportent généralement un filigrane de copyright dans le coin inférieur gauche.

Mais ce type de filigrane n’est pas adapté à l’identification des images générées par les Al-Qaïda, car il peut facilement être modifié ou recadré.

Les entreprises technologiques utilisent une technique appelée « hachage » pour créer des « empreintes » numériques de vidéos connues d’abus, afin de pouvoir les repérer et les supprimer rapidement si elles commencent à se répandre en ligne. Mais ces empreintes peuvent elles aussi être corrompues si la vidéo est recadrée ou modifiée.

Le système de Google crée un filigrane invisible qui permettra aux internautes d’utiliser son logiciel pour savoir instantanément si l’image est réelle ou si elle a été fabriquée par une machine.

Pushmeet Kohli, responsable de la recherche chez DeepMind, a déclaré à la BBC que son système modifiait les images si subtilement « que pour vous et moi, pour un humain, elles ne changent pas ».

Lire aussi  Percées IA et cloud : les annonces de Google Cloud Next qui redéfinissent le futur !

Contrairement au hachage, le logiciel de l’entreprise peut toujours identifier la présence du filigrane, même si l’image est recadrée ou modifiée par la suite.

« Vous pouvez changer la couleur, vous pouvez changer le contraste, vous pouvez même la redimensionner… [et DeepMind] sera toujours en mesure de voir qu’il est généré par l’IA », a-t-il déclaré.

Il a toutefois précisé qu’il s’agissait d’un « lancement expérimental » du système et que l’entreprise avait besoin que les gens l’utilisent pour en savoir plus sur sa robustesse.

Normalisation

En juillet, Google a été l’une des sept entreprises leaders dans le domaine de l’intelligence artificielle à signer un accord volontaire aux États-Unis pour garantir la sécurité du développement et de l’utilisation de l’intelligence artificielle, notamment en veillant à ce que les gens soient en mesure de repérer les images créées par ordinateur grâce à la mise en place de filigranes.

M. Kohli a déclaré que cette initiative reflétait ces engagements, mais Claire Leibowicz, du groupe de campagne Partnership on AI, a déclaré qu’il fallait davantage de coordination entre les entreprises.

Lire aussi  Attention! LG et Meta s'allient-ils pour terrasser le Vision Pro d'Apple?

« Je pense qu’une normalisation serait utile dans ce domaine », a-t-elle déclaré.

« Différentes méthodes sont utilisées, nous devons surveiller leur impact – comment pouvons-nous obtenir de meilleurs rapports sur celles qui fonctionnent et dans quel but ?

« De nombreuses institutions explorent différentes méthodes, ce qui ajoute à la complexité, car notre écosystème d’information repose sur différentes méthodes d’interprétation et de dénégation du contenu généré par l’IA », a-t-elle ajouté.

Microsoft et Amazon font partie des grandes entreprises technologiques qui, à l’instar de Google, se sont engagées à apposer un filigrane sur certains contenus générés par l’IA.

Au-delà des images, Meta a publié un document de recherche sur son générateur de vidéos Make-A-Video, qui n’a pas encore été publié, dans lequel il est indiqué que des filigranes seront ajoutés aux vidéos générées afin de répondre à des demandes similaires de transparence sur les œuvres générées par l’IA.

La Chine a interdit les images générées par l’IA sans filigrane au début de cette année, des entreprises comme Alibaba les appliquant aux créations réalisées avec l’outil de conversion de texte en image de sa division « cloud », Tongyi Wanxiang.

Author

Write A Comment