in

L’Europe lance un centre de recherche sur l’IA pour appliquer les règles de responsabilité aux Big Techs.


UN NOUVEAU CENTRE DE RECHERCHE DÉDIÉ À LA TRANSPARENCE ALGORITHMIQUE POUR APPUYER LE DSA DE L’UE

L’Union européenne se prépare à appliquer une importante réforme de son règlement numérique dans quelques mois. Pour soutenir la surveillance des grandes plateformes sous les bannières phares du Digital Services Act (DSA), une nouvelle unité de recherche dédiée est en train de se former. Le European Center for Algorithmic Transparency (ECAT), inauguré aujourd’hui officiellement à Séville, en Espagne, est supposé jouer un rôle majeur dans l’interrogation des algorithmes des services numériques grand public tels que Facebook, Instagram et TikTok. L’ECAT est intégré au Centre commun de recherche (JRC) de l’UE, un centre scientifique établi depuis longtemps, qui mène des recherches pour soutenir un large éventail de politiques de l’UE, allant du changement climatique et de la gestion des crises jusqu’à la fiscalité et les sciences de la santé. Cependant, bien que l’ECAT soit intégré au JRC et temporairement logé dans le même bâtiment austère (le World Trade Centre de Séville), avant d’obtenir des locaux sur mesure en plan ouvert dans les années à venir, il se concentre spécifiquement sur le DSA, soutenant les législateurs dans la collecte de preuves pour constituer des dossiers afin d’agir sur toute plateforme qui ne prend pas ses obligations au sérieux.

RENFORCER L’OBLIGATION DE TRANSPARENCE DES GRANDES PLATEFORMES

Les fonctionnaires de la Commission décrivent la fonction de l’ECAT comme étant d’identifier les « preuves irréfutables » pour renforcer l’application du DSA. Par exemple, un système de recommandation basé sur l’intelligence artificielle qui peut être montré pour fournir du contenu discriminatoire, malgré la plateforme en question prétendant avoir pris des mesures pour « débiaiser » la production. Les chercheurs de l’unité sont chargés de trouver des preuves concrètes pour aider la Commission à constituer des dossiers pour violation du nouveau règlement numérique. L’UE est à l’avant-garde de la réglementation des services et des plateformes numériques en réponse au pouvoir asymétrique des plateformes à l’échelle mondiale. Elle a donc priorisé une transformation majeure de son approche en matière de régulation des services et des plateformes numériques au début du mandat actuel de la Commission en 2019, ce qui a conduit à l’adoption du DSA et de son règlement frère, le Digital Markets Act (DMA), l’année dernière. Les deux réglementations entreront en vigueur dans les prochains mois, bien que l’ensemble des dispositions du DSA ne commenceront à être appliquées qu’à partir de début 2024. Toutefois, un sous-ensemble de plateformes en ligne très grandes (VLOP) et de moteurs de recherche très grands en ligne (VLOSE) fera face à une surveillance imminente, ce qui élargit l’acronyme habituel de l’UE. Aujourd’hui, la Commission a déclaré qu’elle désignerait « très bientôt » les plateformes qui seront soumises à un régime de surveillance spécial, ce qui oblige les VLOP/VLOSE à évaluer proactivement les risques systémiques que peuvent poser leurs algorithmes, à appliquer des mesures d’atténuation et à se soumettre à un examen régulier des mesures qu’ils ont prises pour faire face à de tels risques par les régulateurs de l’UE.

UNE APPROCHE PROACTIVE POUR ADRESSER LES RISQUES LIÉS À L’IA

Au moins, le DSA devrait contribuer à mettre fin à l’époque de l’autorégulation embellie par les relations publiques des plateformes, au cours de laquelle les géants technologiques ont été accusés de ne pas prendre des mesures significatives pour lutter contre les préjudices liés à la façon dont ils opèrent leurs puissantes plateformes sociotechniques. L’objectif général de l’UE pour le DSA est d’établir de nouvelles normes de sécurité en ligne en utilisant la transparence obligatoire comme volant pour assurer la responsabilité algorithmique. En obligeant les géants technologiques à ouvrir leurs boîtes noires d’IA et à être plus proactifs dans la lutte contre les préjudices liés aux données, l’UE espère qu’ils auront plus de choix que de prendre une approche réactive. Cependant, cette stratégie risque d’être audacieuse et son objectif complexe. L’échec à obtenir des résultats satisfaisants sur plusieurs mesures et dimensions pourrait faire de l’UE une cible pour une nouvelle vague de critique « d’anti-innovation ». La Commission prévoit que l’ECAT deviendra une référence en matière de recherche de premier plan sur l’audit algorithmique, et que l’ouverture de la transparence réglementée sur les géants technologiques permettra aux chercheurs régionaux de comprendre les impacts sociétaux à long terme des IAs grand public.

What do you think?

Leave a Reply

Your email address will not be published. Required fields are marked *

Fuite: Google va annoncer le Pixel Fold lors de l’événement I/O et devancer Samsung en termes de batterie.

Un élève de première année du Tennessee se déguise en Dolly Parton.