in

Avec le tatouage numérique utilisant l’intelligence artificielle, les créateurs ripostent.

PROTÉGER LES DONNÉES POUR CONTRÔLER L’UTILISATION DES IA

Les modèles d’intelligence artificielle (IA) nécessitent des quantités massives de données pour entraîner leurs algorithmes complexes. Cependant, leur utilisation peut parfois porter atteinte aux droits des propriétaires de données. Il était cependant jusque-là difficile de prouver que les modèles utilisaient des ensembles de données sans autorisation. C’est pourquoi, une nouvelle étude publiée dans IEEE Transactions on Information Forensics and Security propose une méthode de protection des données contre une utilisation non autorisée en les marquant avec des filigranes numériques.

PROTÉGER LES DONNÉES SANS RESTRICTION

La méthode consiste à détecter si un modèle d’IA spécifique a été entraîné sur un ensemble de données particulier. Les propriétaires de données peuvent ainsi signaler les modèles suspectés d’une utilisation non autorisée. Contrairement à une solution de protection basique, comme l’encryption, qui limiterait l’accès à l’ensemble de données, la méthode de marquage offre plus de souplesse tandis que les données sont disponibles pour les utilisateurs autorisés.

UNE TECHNIQUE DE ‘BACKDOOR ATTACK’

Pour mettre en place une méthode de marquage, les chercheurs ont sélectionné un petit nombre d’images dans un ensemble de données. Ils ont ensuite intégré un filigrane sous forme d’un ensemble de pixels altérés dans chaque image. Ils ont également modifié l’étiquette de classification de chaque image marquée pour la substituer à une étiquette cible, établissant ainsi une relation entre le filigrane et l’étiquette. Enfin, les images modifiées sont combinées avec le reste de l’ensemble de données et publiées pour être utilisées par tous les utilisateurs autorisés.

APPLICATIONS À UN LARGE ÉVENTAIL DE MODÈLES

La technique de marquage peut être adaptée à de nombreux types de problèmes d’apprentissage automatique, bien que l’étude se soit concentrée sur les modèles de classification, notamment la classification d’images.

L’utilisation de filigranes pourrait également être étendue aux domaines artistiques pour empêcher l’utilisation de leur travail dans l’apprentissage automatique.

UNE MÉTHODE À AMÉLIORER

La dématérialisation de la technique de marquage pourrait être utilisée à mauvais escient par des acteurs malveillants. Par exemple, ceux-ci pourraient former un système de conduite autonome à reconnaître les panneaux “Stop” comme “Limitation de vitesse”. Des méthodes de prévention sont donc nécessaires pour éviter ces dangers.

De plus, la technique de marquage nécessite un équilibre entre la quantité de données marquées et leur qualité, pour assurer une attaque de ‘backdoor’ efficace, sans éveiller les soupçons ni fausser l’ensemble de données pour les utilisateurs autorisés.

CONCLUSION

Le filigrane numérique permettra d’offrir plus de transparence au traitement des données utilisées par les modèles d’IA, tout en respectant les droits des propriétaires des données. Cependant, il est essentiel de veiller à la sécurité de ces méthodes afin d’éviter les utilisations malveillantes et répondre aux évolutions des techniques de défense.

What do you think?

Written by Mathieu

Leave a Reply

Your email address will not be published. Required fields are marked *

AMD équipe discrètement une nouvelle vague concurrentielle pour la Steam Deck.

La tablette Pixel a été filmée lors d’un événement spécial organisé par Google.