Connect with us

L’œil de l’intelligence artificielle moins affûté que celui des médecins ?

Sciences

L’œil de l’intelligence artificielle moins affûté que celui des médecins ?

L’œil de l’intelligence artificielle moins affûté que celui des médecins ?

Carte blanche. Depuis trois ans, de nombreuses chartes de politiques publiques ou privées défendant des principes d’une intelligence artificielle (IA) éthique et de confiance ont vu le jour. Aucune mise en œuvre opérationnelle de ces principes n’a, cependant, pu être observée. Pourtant, beaucoup de voix s’élèvent pour réclamer la certification de l’IA, et des entreprises, revendiquant leur capacité à délivrer des labels de confiance et des méthodologies d’évaluation, fleurissent. C’est la ruée vers l’or, la quête du Graal, sans qu’aucune démarche s’impose et recueille le consensus.

La majeure partie de ces démarches procède par des listes de vérification (check-lists), qui tentent de couvrir l’ensemble des questions de vigilance dans les processus de conception, de développement et de déploiement des systèmes d’IA. Le problème est que l’utilisation d’une check-list comporte une forte part de subjectivité liée aux personnes et à leurs perceptions d’une situation, laissant peu de place à des résultats comparatifs qui tiennent la route. Les check-lists peuvent constituer une étape intermédiaire d’évaluation mais pas une méthode de certification menant à des standards indiscutables.

Une part importante de la confiance qu’on peut accorder à l’IA afin d’éviter les impacts négatifs non intentionnels provient de la robustesse des méthodes développées et déployées. Un article paru le 2 septembre dans le British Medical Journal (BMJ) en offre une illustration. Il critique la robustesse et la précision des algorithmes d’IA dans la détection du cancer de sein et, de ce fait, fait douter de l’efficacité de ces derniers en radiologie : « 94 % des 36 systèmes d’IA évalués étaient moins précis qu’un seul radiologue, et tous l’étaient moins que le diagnostic conjoint de deux radiologues ou plus », concluent Karoline Freeman (université de Warwick) et ses collègues.

Les qualités de robustesse se mesurent par la répétabilité et la reproductibilité des résultats d’un système d’IA. Un algorithme est répétable s’il délivre les mêmes résultats quand il est appliqué plusieurs fois sur les mêmes données des patients. Il est reproductible quand il donne les mêmes résultats et performances dans des conditions différentes. Dans le domaine médical, par exemple, la reproductibilité suppose qu’un algorithme donne des résultats comparables en performance s’il est appliqué sur des données de patients répondant aux mêmes critères d’éligibilité (inclusion/exclusion) à l’étude mais provenant d’hôpitaux différents, avec des dispositifs de capture des images et des opérateurs humains différents. La reproductibilité nécessite également de ne pas se limiter à une étude de faisabilité sur un nombre réduit de patients mais de s’assurer de sa capacité à reproduire les mêmes performances sur un nombre de données bien plus important pour conclure à la généralisation des résultats obtenus.

Il vous reste 21.94% de cet article à lire. La suite est réservée aux abonnés.

Continue Reading
You may also like...
Click to comment

You must be logged in to post a comment Login

Leave a Reply

More in Sciences

To Top
Recherche.fr