in

Par delà la précision: Exploration de métriques exotiques pour l’évaluation holistique des modèles d’apprentissage automatique | par Adrien Pavao | Avril, 2023.


LES MÉTRIQUES NON CONVENTIONNELLES EN APPRENTISSAGE AUTOMATIQUE

L’apprentissage automatique est devenu un outil puissant dans le monde axé sur les données d’aujourd’hui, mais exploite-t-on vraiment son plein potentiel ? Les indicateurs d’évaluation traditionnels tels que la précision, la précision positive et le rappel ont longtemps été mis en avant, mais il y a tellement plus à prendre en compte pour mesurer l’impact du modèle dans le monde réel. Dans cet article, nous explorerons les métriques moins connues et non conventionnelles qui redéfinissent la façon dont nous évaluons les modèles d’apprentissage automatique. De l’équité, de la confidentialité et de l’étalonnage à la consommation d’énergie, de données ou même de tests psychologiques et comportementaux, ces techniques d’évaluation innovantes changeront notre façon de penser aux performances des modèles et ouvriront la voie à une approche plus responsable et holistique de l’apprentissage automatique.

L’ÉQUITÉ DES MODÈLES

Même si la définition mathématique des modèles d’apprentissage automatique ne contient pas nécessairement d’éléments injustes ou biaisés, les modèles formés peuvent être injustes en fonction de la qualité de leurs données d’entrée ou de leur procédure d’apprentissage. Un modèle appris sur des données biaisées peut non seulement conduire à des prédictions injustes et inexactes, mais aussi désavantager considérablement certains sous-groupes et entraîner une injustice.

En d’autres termes, la notion d’équité des modèles décrit le fait que les modèles peuvent se comporter différemment sur certains sous-groupes de données. Le problème est particulièrement significatif lorsqu’il concerne des groupes démographiques, couramment définis par des facteurs tels que le sexe, l’âge, l’ethnicité ou les convictions religieuses. Comme l’apprentissage automatique est de plus en plus appliqué dans la société, ce problème attire de plus en plus l’attention et la recherche. Quantifier l’équité en apprentissage automatique fait l’objet de débats. Certaines façons intéressantes de mesurer l’équité comprennent :

– Parité démographique : Cette mesure vérifie si le taux de classification positive est égal pour différents groupes démographiques.
—-
Les métriques non conventionnelles en apprentissage automatique doivent être prises en compte pour évaluer les performances des modèles de manière responsable et holistique. En évaluant l’équité, la confidentialité, l’étalonnage et la consommation de données et d’énergie, nous pouvons garantir des résultats fiables et cohérents dans un large éventail d’applications potentiellement dangereuses, telles que la détection de maladies ou l’identification de champignons. Bien que de nombreux défis se posent dans la recherche et la mesure de ces métriques, ils sont essentiels pour faire progresser l’apprentissage automatique et l’adapter aux besoins de la société.

What do you think?

Written by Barbara

Leave a Reply

Your email address will not be published. Required fields are marked *

Recherche et développement en intelligence artificielle (IA).

Chatbots de catalogue Whatsapp