in

La réglementation de l’IA est en train de prendre forme, mais les startups sont laissées de côté.

Dans le monde de l’IA générative, ce sont les grands noms qui occupent le devant de la scène. Les géants de la tech tels que Microsoft et les startups financées généreusement comme OpenAI ont reçu des invitations à la Maison Blanche et sont les premiers, parmi d’autres à venir, à avoir été convoqués devant le Congrès. Ce sont ceux qui obtiennent des articles de profil importants pour discuter de la façon dont leur technologie va mettre fin à l’humanité. Alors que les politiciens aux États-Unis et ailleurs se débattent pour réguler l’IA, cette poignée d’entreprises joue un rôle disproportionné dans la définition des termes de la conversation. Et les acteurs de l’IA plus petits, qu’ils soient commerciaux ou non commerciaux, se sentent exclus, tout en faisant face à un avenir plus incertain. Le “Big AI” – un terme depuis longtemps nécessaire – guide activement les politiques potentielles de l’IA. Le mois dernier, OpenAI, Meta, Microsoft, Google, Anthropic et Amazon ont signé un accord avec la Maison Blanche promettant d’investir dans une IA responsable et de développer des fonctionnalités de filigrane pour signaler le contenu généré par l’IA. Peu de temps après, OpenAI, Microsoft, Anthropic et Google ont formé le Frontier Model Forum, une coalition industrielle visant à “promouvoir l’utilisation sûre et responsable des systèmes d’IA pionniers”. Il a été créé pour faire progresser la recherche en IA, définir les meilleures pratiques et partager des informations avec les décideurs politiques et le reste de l’écosystème de l’IA. Mais ces entreprises ne représentent qu’une partie du marché de l’IA générative. OpenAI, Google, Anthropic et Meta utilisent tous ce qu’on appelle des modèles de base, des structures d’IA qui peuvent être axées soit sur le langage, soit sur les images. Par-dessus ces modèles, il y a un secteur en plein essor de petites entreprises qui développent des applications et d’autres outils. Elles sont confrontées à de nombreuses formes de surveillance similaires, mais alors que des règles sur l’IA sont en cours d’élaboration, elles s’inquiètent de ne pas pouvoir influencer les résultats et, contrairement au Big AI, qui dispose de fonds importants pour la non-conformité, elles ne peuvent pas se permettre des perturbations dans leurs activités. “Pour les petites et moyennes entreprises de la chaîne de valeur qui sont dans l’espace de l’IA mais qui ne sont pas vraiment présentes à la table, cela ajoute à ce sentiment d’exclusion, comme si nous n’étions pas l’une des grandes entreprises, nous devons simplement nous asseoir et attendre que quelqu’un mette quelque chose en œuvre”, déclare Triveni Gandhi, responsable de l’IA responsable à la société d’IA Dataiku, à The Verge. Gandhi donne l’exemple de la responsabilité comme l’un des risques potentiels pour les petits acteurs. Les entreprises situées au milieu de la chaîne de valeur de l’IA, comme Dataiku – qui développe des applications d’analyse de données et travaille avec des clients – n’ont pas le contrôle sur la façon dont les modèles qu’elles utilisent obtiennent des informations. Ainsi, si les règles stipulent que les entreprises d’IA seront tenues responsables de la façon dont les chatbots utilisent les données et répondent aux requêtes, une entreprise comme Dataiku pourrait finir par être sanctionnée pour quelque chose qu’elle ne peut pas changer facilement. Le Frontier Model Forum a déclaré qu’il travaillerait avec des groupes de la société civile et des gouvernements, mais n’a pas précisé si l’adhésion sera élargie à d’autres entreprises d’IA. OpenAI, l’un des leaders du forum, a refusé de dire si le groupe s’ouvrira à l’avenir. À l’avenir, ces petites entreprises doivent participer à la conversation réglementaire et elles veulent avoir leur mot à dire sur la manière dont elles seront contrôlées. Ron Bodkin, co-fondateur de ChainML, a déclaré que calibrer les exigences et les amendes en fonction de la taille et de l’envergure des acteurs de l’IA irait loin pour répondre aux nombreuses préoccupations des petites entreprises. Gandhi de Dataiku a suggéré que toute coalition sectorielle ou organisation de normes, comme l’Organisation internationale de normalisation, devrait laisser la place à plus d’acteurs, en particulier parce que les besoins de ceux qui travaillent sur des modèles de base diffèrent de ceux qui travaillent avec des consommateurs. Les inquiétudes concernant la capture réglementaire – lorsque des industries réglementées influencent fortement la création et l’application des politiques – se sont glissées dans les audiences du Congrès alors que les législateurs cherchaient à trouver un équilibre entre l’innovation et la prévention des préjudices. Il est logique que les gouvernements sollicitent les grandes entreprises d’IA tout en élaborant un cadre réglementaire. Mais s’appuyer sur leur contribution risque d’éloigner encore davantage les entreprises plus petites de la chaîne de valeur, et de créer des règles qui finissent par protéger les grands acteurs dominants de la concurrence. Permettre aux grandes entreprises de façonner les réglementations à leur avantage pourrait priver les utilisateurs réels, nous, de notre voix dans la gouvernance de l’IA. AI Now a tiré la sonnette d’alarme sur l’influence du Big AI avec un rapport publié en avril. L’organisation a averti que les entreprises dominaient le discours autour de l’IA, exagérant l’importance de la technologie pour l’avenir et influençant la façon dont les gens la perçoivent. AI Now estime que la conversation devrait être menée par les régulateurs et le public. Beena Ammanath, directrice exécutive du Global Deloitte AI Institute, a déclaré que favoriser la confiance dans les technologies de l’IA signifierait impliquer plus que de grandes entreprises. Des groupes non gouvernementaux, des universitaires, des agences internationales et des experts en politique doivent également donner leur avis. Et tandis que les législateurs continuent de discuter de la réglementation de l’IA, il est encore temps d’ouvrir la conversation. “Créer des politiques qui privilégient véritablement l’intérêt public par rapport aux gains des entreprises sera essentiel pour favoriser la confiance dans la technologie de l’IA, respecter les normes éthiques et favoriser une adoption responsable de l’IA”, déclare Ammanath.

What do you think?

Written by Milo

Leave a Reply

Your email address will not be published. Required fields are marked *

Le premier trailer de The Changeling d’Apple promet un récit poignant sur la parentalité.

Revue de la série Samsung Galaxy Watch 6 : affinée, mais non révolutionnaire