in

Microsoft publie son premier rapport sur la transparence de l’IA

## RAPPORT SUR LA TRANSPARENCE DE L’IA RESPONSABLE DE MICROSOFT

Dans son Rapport sur la transparence de l’IA responsable, qui couvre principalement l’année 2023, Microsoft met en avant ses réalisations en matière de déploiement sécurisé de produits d’IA. Le rapport annuel sur la transparence de l’IA est l’un des engagements pris par l’entreprise après avoir signé un accord volontaire avec la Maison Blanche en juillet de l’année dernière. Microsoft et d’autres entreprises se sont engagées à mettre en place des systèmes d’IA responsables et à s’engager en matière de sécurité.

## OUTILS D’IA RESPONSABLE ET MARQUES DE CONTENU

Microsoft indique dans le rapport avoir créé 30 outils d’IA responsables au cours de l’année écoulée, avoir renforcé son équipe d’IA responsable et avoir exigé que les équipes développant des applications d’IA générative mesurent et cartographient les risques tout au long du cycle de développement. L’entreprise mentionne avoir ajouté des Content Credentials à ses plateformes de génération d’images, apposant ainsi un filigrane sur une photo pour la marquer comme étant créée par un modèle d’IA.

## ACCÈS AUX OUTILS DE DÉTECTION ET D’ÉVALUATION DES RISQUES

La société affirme avoir donné aux clients d’Azure AI accès à des outils permettant de détecter des contenus problématiques tels que les discours de haine, les contenus sexuels et les comportements d’automutilation, ainsi que des outils pour évaluer les risques en matière de sécurité. Cela inclut de nouvelles méthodes de détection de jailbreak, qui ont été étendues en mars de cette année pour inclure des injections indirectes de directives où les instructions malveillantes font partie des données ingérées par le modèle d’IA.

## RENFORCEMENT DES EFFORTS DE RED-TEAMING

Microsoft élargit également ses efforts de red-teaming, comprenant à la fois des équipes internes qui cherchent délibérément à contourner les fonctionnalités de sécurité de ses modèles d’IA ainsi que des applications de red-teaming permettant des tests par des tiers avant la publication de nouveaux modèles.

## DÉFIS POUR LES UNITÉS DE RED-TEAMING

Cependant, les unités de red-teaming de l’entreprise ont du pain sur la planche. Les déploiements d’IA de la société n’ont pas été à l’abri de controverses.

## ENGAGEMENT CONTINU EN MATIÈRE D’IA RESPONSABLE

Natasha Crampton, responsable en chef de l’IA responsable chez Microsoft, déclare dans un e-mail envoyé à The Verge que l’entreprise comprend que l’IA est encore en cours de développement, tout comme l’IA responsable.

“L’IA responsable n’a pas de ligne d’arrivée, nous ne considérerons donc jamais notre travail dans le cadre des engagements volontaires en matière d’IA comme terminé. Mais nous avons réalisé de grands progrès depuis leur signature et avons hâte de capitaliser sur notre élan cette année,” déclare Crampton.

Références:
1. [Wikipedia – Red team](https://en.wikipedia.org/wiki/Red_team)
2. [Article sur les élections et l’IA générative](https://www.theverge.com/2023/11/8/23951955/microsoft-elections-generative-ai-content-watermarks)
3. [Article sur la sécurité de l’IA Azure](https://www.theverge.com/2024/3/28/24114664/microsoft-safety-ai-prompt-injections-hallucinations-azure)

What do you think?

Written by Barbara

Leave a Reply

Your email address will not be published. Required fields are marked *

Voyages avec l’outil de recherche génératif Perplexity AI

Les mariées économisent de l’argent et réduisent le stress avec ChatGPT en tant que planificateur de mariage.