in

« Derrière l’intelligence artificielle, il y a toujours des humains »

[ad_1]

Lenka Zdeborová a travaillé au Centre de l’énergie atomique pour le CNRS avant de devenir, en 2020, professeure de physique statistique et d’informatique à l’Ecole polytechnique fédérale de Lausanne (EPFL). Elle est membre du comité éditorial du journal Machine Learning : Science and Technology, consacré aux apports de l’intelligence artificielle (IA) pour la recherche. Elle donne notamment des cours d’apprentissage automatique pour physiciens et essaie de comprendre le fonctionnement de l’IA.

Et aussi dans notre dossier : Article réservé à nos abonnés L’intelligence artificielle, nouveau moteur de la recherche scientifique

Pourquoi, comme physicienne, faites-vous des systèmes d’IA votre sujet d’étude ?

En général, un algorithme est une succession d’opérations que nous pouvons comprendre et suivre une à une. Un réseau de neurones avec des millions, voire des milliards de paramètres, ce n’est pas la même chose. Quand est-ce que ça va marcher ? A quelles conditions ? Là, on ne peut pas souvent répondre par avance. Il nous manque donc une compréhension théorique de ces objets. Je les étudie comme d’autres systèmes complexes, tels que la propagation d’une épidémie ou un trou noir, avec des outils de la physique statistique développés notamment par Giorgio Parisi, le Prix Nobel de physique 2021.

Lire aussi : Article réservé à nos abonnés Giorgio Parisi, le Nobel qui murmurait aux oreilles des étourneaux

Dans quel but ?

Pour certains usages, pour des applications critiques ou pour étudier des systèmes en science, nous avons des critères plus rigoureux que pour une simple application de recommandation de films. Nous avons besoin d’avoir une grande confiance dans le résultat. Nous devons pouvoir dire si la réponse du programme est solide, dans quelles conditions un résultat correct est obtenu, quelle architecture est meilleure, plus rapide ou plus précise qu’une autre. Nous nous demandons si le même résultat pourrait être obtenu avec moins de données d’apprentissage. Mais ma motivation est aussi d’ordre un peu plus philosophique.

Que voulez-vous dire ?

Par exemple, on peut se demander si l’IA change la méthode scientifique. Jusqu’à aujourd’hui, nous étions un peu coincés, dans nos raisonnements, par des équations et par des modèles. Mais, maintenant, il existe des situations où des prédictions sont réalisées sans modèle, et où des hypothèses sortent des données et non plus de la tête du chercheur. Nous constatons que, dans certains cas, prédire le comportement d’un système ou le contrôler peut se faire sans disposer de modèles simples, contrairement à autrefois. Au fond, cette situation ressemble un peu à celles que nous connaissions en effectuant des simulations très compliquées. Nous pouvions même être un peu frustrés de ne pas parvenir à dégager une compréhension simple. Il faudra s’habituer à ce que l’IA multiplie ce genre de situations.

Il vous reste 36.41% de cet article à lire. La suite est réservée aux abonnés.

[ad_2]

What do you think?

Written by Milo

Leave a Reply

Your email address will not be published. Required fields are marked *

Apple augmente le prix de ses principaux services

La chaleur va persister dans les prochains jours