in

Le plan de Spawning permet aux créateurs de choisir de ne pas participer à la formation de l’IA générative.


SPAWNING ANNONCE UN PLAN POUR PERMETTRE AUX CRÉATEURS DE SE RETIRER DE LA FORMATION D’IA GÉNÉRATIVE

Depuis quelques mois, plusieurs litiges juridiques ont émergé entre les artistes et les entreprises entraînant l’IA sur leurs œuvres d’art. Les plaintes concernent l’utilisation non autorisée de données sous droit d’auteur, principalement de l’art, pour entraîner les modèles génératifs d’IA. Pour permettre aux artistes de contrôler davantage la manière dont leur œuvre est utilisée, Jordan Meyer et Mathew Dryhurst ont co-fondé la start-up Spawning AI. Spawning a créé HaveIBeenTrained, un site internet qui permet aux créateurs de se retirer de l’ensemble de données d’entraînement pour un modèle d’IA générateur d’art, Stable Diffusion v3, qui doit être diffusé prochainement. En mars, les artistes avaient utilisé HaveIBeenTrained pour retirer 80 millions d’œuvres d’art de l’ensemble d’entraînement Stable Diffusion. Fin avril, ce chiffre avait dépassé le milliard. Alors que la demande pour le service de Spawning augmentait, la société, jusque-là entièrement autofinancée, a cherché un investissement extérieur. Elle l’a obtenu. Spawning a annoncé avoir levé 3 millions de dollars dans une phase de financement initial menée par True Ventures avec la participation de Seed Club Ventures, Abhay Parasnis, Charles Songhurst, Balaji Srinivisan, Jacob.eth et Noise DAO.

UNE DEMANDE GRANDISSANTE DES ARTISTES POUR CONTRÔLER LA FORMATION D’IA GÉNÉRATIVE

Grâce à cet investissement, Spawning envisage de développer des normes en matière de propriété intellectuelle pour l’ère de l’IA et des normes plus strictes de retrait et d’adhésion. Spawning souhaite construire une couche de consentement pour l’IA et offrir plus de services aux organisations cherchant à protéger le travail de leurs artistes. La demande grandissante des artistes pour une plus grande influence sur la manière dont leur travail est utilisé a été évidente. Cependant, Spawning n’a pas réussi à rassembler l’industrie autour d’une norme commune de refus ou de provenance. Adobe et DeviantArt, qui ont récemment annoncé des outils d’IA générateurs, poursuivent leurs propres mécanismes et outils de retrait. OpenAI, le géant de l’IA générative, n’offre toujours pas d’outil de retrait ni de plan pour l’offrir dans un futur proche.

SPAWNING RENCONTRE DES CRITIQUES POUR LE PROCESSUS OPACIFIÉ DE RETRAIT

Spawning a également été critiquée pour l’opacité et la vaguesse de son processus de retrait. Le processus de retrait ne semble pas correspondre à la définition de la permission d’utiliser des données personnelles dans le Règlement général sur la protection des données (RGPD) de l’Union européenne, qui stipule que la permission doit être consentie activement, et non supposée par défaut. Il n’est pas clair non plus comment Spawning entend vérifier légalement l’identité des artistes qui effectuent une demande de retrait, ou s’il a l’intention de le faire tout court. La solution de Spawning est multidimensionnelle. Tout d’abord, elle prévoit de faciliter le respect des demandes de retrait par les entraîneurs de modèles d’IA et de simplifier le processus pour les créateurs. Ensuite, elle offrira davantage de services aux organisations cherchant à protéger le travail de leurs artistes. Elle envisage de construire une infrastructure pour prendre en charge plusieurs ensembles de données, notamment de la musique, de la vidéo et du texte.

SPAWNING MET L’ACCENT SUR LES SERVICES

Spawning a l’intention de gagner de l’argent en créant des services sur sa propre infrastructure de contenu, mais il est difficile de savoir comment cela sera perçu par les créateurs. Pour renforcer la visibilité de son site, Spawning noue des partenariats avec des plateformes d’hébergement et de gestion de modèles d’IA. Le site prévoit de sortir une fonctionnalité de détection de duplication exacte pour faire correspondre les images retraitées avec les copies qu’elle trouve sur le web. Elle envisage également une fonctionnalité de détection de quasi-duplication pour avertir les artistes lorsque Spawning trouve des copies de leur travail qui ont été recadrées, compressées ou légèrement modifiées. Spawning compte également lancer un module d’extension pour Chrome pour permettre aux créateurs de se retirer de leur travail publié sur n’importe quel site Internet, ainsi qu’une recherche par légende sur le site Web HaveIBeenTrained pour rechercher directement des descriptions d’image.

Sources :
– TechCrunch : https://techcrunch.com/2021/05/03/spawning-lays-out-plans-for-letting-creators-opt-out-of-generative-ai-training/
– Ars Technica : https://arstechnica.com/gaming/2021/04/artists-are-fighting-back-against-ai-generated-deepfakes/

What do you think?

Written by Barbara

Leave a Reply

Your email address will not be published. Required fields are marked *

LLM de poche

AMD officialise le Ryzen 7840U et prétend qu’il peut surpasser l’Apple M2.