# Des outils d’IA qui génèrent des œuvres d’art fascinent, mais soulèvent des questions éthiques
Depuis la mise à disposition du public des modèles d’Intelligence Artificielle (IA) de texte à image tels que Stable Diffusion et Midjourney, ces derniers sont devenus le point central des débats sur l’éthique de leur utilisation. Anton Troynikov, cofondateur de Chroma, une start-up travaillant à améliorer l’interprétabilité de l’IA, a vu dans les générateurs d’art alimentés par cette technologie une opportunité de construire un outil pour faciliter l’attribution d’œuvres d’art à des auteurs. Il a répondu à cinq questions sur le projet appelé Stable Attribution et sur la façon dont les artistes et les ingénieurs en IA peuvent travailler ensemble.
# Quelles ont été vos premières impressions des générateurs d’art alimentés par l’IA lorsqu’ils ont été lancés?
Anton Troynikov : J’ai commencé à prêter attention au discours sur l’IA en art après la mise à disposition de Stable Diffusion et de davantage de personnes ayant accès à ce modèle. J’ai rapidement réalisé que les personnes des deux côtés de la conversation se parlaient à côté. Je voulais voir s’il pouvait y avoir une solution technique pour faire en sorte que les technologistes et les créatifs ne soient pas antagonistes l’un envers l’autre.
# Quel est votre objectif avec Stable Attribution?
Troynikov : Je voulais démontrer que ce problème n’était pas impossible à résoudre techniquement. Après avoir parlé à plusieurs personnes, notamment des créatifs, mais aussi du côté technologique et de la recherche, nous avons senti que nous devions juste aller de l’avant et voir quelle serait la réaction lorsque nous lancerions Stable Attribution.
# En quoi consiste Stable Attribution?
Troynikov : Stable Diffusion fait partie d’une catégorie de modèles appelés modèles de diffusion latents. Ces modèles encodent des images et leur légende en vecteurs (une représentation numérique unique pour chaque image). Pendant l’apprentissage, le modèle ajoute des valeurs aléatoires (bruit) aux vecteurs. Ensuite, un modèle est entraîné pour aller d’un vecteur un peu plus bruyant à un vecteur un peu moins bruyant. En d’autres termes, le modèle essaie de reproduire la représentation numérique originale de chaque image de son ensemble d’apprentissage, en fonction de la légende associée à cette image.
L’idée était que, comme ces représentations numériques proviennent de modèles pré-entraînés qui transforment les images en vecteurs et vice versa, l’IA essaie essentiellement de reproduire des images de manière aussi similaire que possible. Ainsi, une image générée doit être similaire aux images qui l’ont le plus influencée, en ayant une représentation numérique similaire.
# Comment déterminez-vous qui sont les artistes et les créateurs?
Troynikov : Nous aimerions vraiment pouvoir attribuer directement les images sources aux personnes qui les ont créées. Ce que nous avons et ce qui est disponible dans l’ensemble de données d’apprentissage public de Stable Diffusion, ce sont des URLs d’images et ces URLs proviennent souvent d’un réseau de diffusion de contenu (CDN). Les propriétaires des sites où ces images apparaissent et les propriétaires et exploitants de ces CDN peuvent faire le lien.
Nous avons un petit formulaire de soumission sur le site. Si les gens reconnaissent qui est le créateur, ils peuvent nous le soumettre et nous essayerons d’établir le lien.
# Comment pensez-vous que l’IA générative et la possibilité d’attribuer les images sources à leurs créateurs vont influencer la création artistique ?
Troynikov : Je pense qu’il y a deux choses que vous pouvez faire. L’une est, en étant en mesure d’attribuer l’origine des images, vous pouvez alors rémunérer proportionnellement les contributeurs à votre ensemble d’apprentissage en fonction de leur contribution à une génération donnée. L’autre chose vraiment intéressante est que si vous avez la possibilité d’attribution dans les modèles génératifs, ils deviennent alors un moteur de recherche. Vous pouvez trouver itérativement l’esthétique que vous aimez et ensuite revenir aux éléments qui contribuent à la génération de cette image.