NEW YORK : Face à l'exploitation sauvage de données par certains développeurs d'intelligence artificielle (IA), des artistes piègent volontairement leurs créations pour les rendre inutilisables, avec l'aide de chercheurs universitaires.
Paloma McClain est une illustratrice américaine. Plusieurs logiciels d'IA générative permettent déjà de créer des images inspirées de son style, alors que l'artiste n'a jamais donné son accord et n'en retirera rien financièrement.
«Cela me dérangeait», explique la dessinatrice, basée à Houston (Texas). «Je ne suis pas une artiste connue, mais j'étais mal à l'aise à l'idée que mon travail serve à entraîner» un modèle d'IA.
Pour y remédier, elle a passé ses oeuvres à travers le logiciel Glaze, un programme qui ajoute à ses illustrations des pixels, invisibles à l'oeil humain, pour perturber le travail de l'IA.
Après ce traitement, les images créées sont floues, les visages brouillés, sans comparaison avec les originaux.
Alerté en novembre 2022, ce professeur d'informatique a développé le logiciel en quatre mois à peine, se servant de travaux antérieurs destinés à perturber la reconnaissance faciale.
«On a travaillé à toute vitesse, parce que nous savions que le problème était grave», raconte Ben Zhao. «Beaucoup de gens étaient en souffrance.»
Depuis son lancement, Glaze a été téléchargé plus de 1,6 million de fois, selon le chercheur, dont l'unité s'apprête à lancer un nouveau programme, baptisé Nightshade.
Il est axé sur les requêtes en langage courant (prompts) que l'utilisateur d'un modèle d'IA générative soumet pour obtenir une nouvelle image. Il vise à faire dérailler l'algorithme, qui proposera ensuite, par exemple, une image de chat alors qu'un chien a été demandé.
- Protéger aussi la voix -
Autre initiative, celle de la start-up Spawning, qui a mis au point Kudurru, logiciel qui détecte les tentatives de collecte massive sur des plateformes d'images.
L'artiste a alors le choix de bloquer l'accès à ses travaux ou d'envoyer une autre image que celle qui était demandée, «ce qui revient à empoisonner» le modèle d'IA en développement et d'affecter sa fiabilité, décrit Jordan Meyer, cofondateur de Spawning.
Plus de mille sites internet sont déjà intégrés au réseau Kudurru.
Spawning a aussi créé Have I Been Trained? (haveibeentrained.com), un site qui permet de savoir si des images ont alimenté un modèle d'IA et d'offrir à leur propriétaire la possibilité de les protéger contre de futures utilisations non autorisées.
Au-delà de l'image, des chercheurs de l'université de Washington à St. Louis (Missouri) se sont, eux, intéressés au son et ont mis au point AntiFake.
Ce logiciel enrichit un fichier son de bruits supplémentaires, imperceptibles à l'oreille humaine, qui rendent impossible l'imitation crédible d'une voix humaine, détaille Zhiyuan Yu, thésard à l'origine du projet.
Le programme vise notamment à empêcher les «deepfakes», des montages photos ou vidéos hyperréalistes usant de l'apparence d'une personne, souvent célèbre, pour lui faire faire ou dire quelque chose.
L'équipe, supervisée par le professeur Ning Zhang, a récemment été contactée par les producteurs d'un podcast à succès qui souhaitaient le protéger de détournements, selon Zhiyuan Yu.
S'il n'a, pour l'instant, été utilisé que pour du langage parlé, AntiFake pourrait également protéger les voix de chanteurs ou de chanteuses, estime le chercheur, dont le logiciel est d'accès libre et gratuit.
L'unité de Ben Zhao a, elle, été approchée par «plusieurs sociétés qui veulent utiliser Nightshade pour préserver leurs images et leur propriété intellectuelle», selon l'universitaire de Chicago.
Il n'est pas opposé à ce que des entreprises, même importantes, utilisent son programme.
«Le but, c'est que les gens puissent protéger leurs contenus, qu'il s'agisse d'artistes individuellement ou de sociétés avec énormément de propriété intellectuelle», fait valoir Ben Zhao.
Dans le cas de Spawning, l'idée n'est pas seulement de faire obstruction mais, aussi, dans un second temps, de «permettre aux gens de s'organiser pour vendre leurs données moyennant rémunération», précise Jordan Meyer, qui annonce le lancement d'une plateforme début 2024.
«La meilleure solution», selon lui, «serait un monde dans lequel toutes les données utilisées pour l'IA sont soumises à consentement et à paiement. Nous espérons pousser les développeurs dans cette direction.»