Connect with us

La définition de l’intelligence artificielle, enjeu juridico-commercial

NSkU7i

Sciences

La définition de l’intelligence artificielle, enjeu juridico-commercial

La définition de l’intelligence artificielle, enjeu juridico-commercial

NSkU7i

Carte blanche. Au commencement des discussions internationales autour d’une intelligence artificielle (IA) éthique et digne de confiance, les groupes d’experts constitués aussi bien par la Commission européenne (AI HLEG) que par l’OCDE (AIGO) ont établi des définitions de l’IA inclusives. Elles étaient inspirées par les différentes écoles de pensée de leurs membres, des chercheurs du monde académique et industriel qui ont travaillé sans arrière-pensée régulatrice. L’IA a pu ainsi être qualifiée de symbolique, statistique ou encore hybride.

Aujourd’hui, c’est l’apprentissage profond (deep learning) qui suscite le plus de craintes. S’il a impressionné par ses performances depuis 2012, il a perturbé les esprits par son côté « boîte noire » : cette IA essentiellement statistique produit des solutions qui émergent sans qu’on ne maîtrise ni les processus ni les biais éventuels qui les ont induites.

Dans la perspective d’une régulation basée sur l’appréciation des risques, le Conseil de l’Europe pousse pour réduire le périmètre de la définition de l’IA, et la Commission européenne semble soutenir cette orientation. Cette démarche aura pour conséquence d’affaiblir la portée du projet de loi dit « AI ACT ». La définition de l’IA devient donc un enjeu juridico-commercial. Trop large, elle serait très contraignante en matière d’évaluation et de gestion des risques pour les entreprises, car la loi serait applicable pour beaucoup de services numériques, y compris ceux n’utilisant pas d’apprentissage profond.

Traitement massif des données

Cela pose la question de la finalité de tous ces efforts autour de l’« IA de confiance ». N’est-elle pas d’accroître le bénéfice tout en maîtrisant les risques pour les humains engendrés par le traitement massif des données par les algorithmes ? Il s’agit bien de l’impact du déploiement des services logiciels utilisant ou non de l’apprentissage profond.

Après tout, le logiciel d’orientation post-bac et ses successeurs basés sur des algorithmes ont soulevé de nombreuses questions sur son explicabilité-interprétabilité sans pour autant utiliser aucune IA. Pour autant, les élèves et leurs parents avaient besoin de transparence sur ses mécanismes de décision. Et ce n’est pas l’ouverture d’une partie de son code qui a répondu à la question.

Maintenant que l’enjeu devient juridico-commercial, je suis convaincue qu’il aurait fallu poser le problème autrement : non pas la régulation de l’IA en tant que telle, mais celle de l’éthique digitale de manière générale, qui engage un traitement massif des données par les algorithmes. Celui-ci présente en effet toujours un risque avec son déploiement à grande échelle dans tous les domaines. Si on réduit la définition au seul apprentissage profond, on favorisera la mise à l’écart des approches innovantes dont l’efficacité a fait le succès, et le repli vers les méthodes les moins avancées.

Il vous reste 26.65% de cet article à lire. La suite est réservée aux abonnés.

Continue Reading
You may also like...
Click to comment

You must be logged in to post a comment Login

Leave a Reply

More in Sciences

Trending

On en parle

To Top
Recherche.fr