L’empathie générée par l’IA a ses limites


# L’INTELLIGENCE ARTIFICIELLE: L’EMPATHIE GÉNÉRÉE A SES LIMITES

L’intelligence artificielle (IA) est de plus en plus utilisée pour développer des agents conversationnels comme Alexa et Siri, capables de répondre aux questions, d’offrir des suggestions, voire même de montrer de l’empathie. Cependant, ces agents sont alimentés par de grands modèles de langage (LLMs) qui absorbent d’importantes quantités de données produites par les humains, ce qui les rend sujets aux mêmes biais que les humains. Une étude menée par des chercheurs de Cornell Tech, de l’École d’informatique et de sciences de l’information de Cornell Ann S. Bowers, du Olin College of Engineering et de l’Université Stanford a mis en lumière ces limites de l’empathie générée par l’IA.

## DES VALEURS JUGÉES PAR LES AGENTS CONVERSATIONNELS

Les chercheurs ont testé l’hypothèse selon laquelle les agents conversationnels peuvent montrer de l’empathie en interagissant avec ou en parlant de 65 identités humaines distinctes. Ils ont constaté que ces agents font des jugements de valeur sur certaines identités, comme les personnes homosexuelles et musulmanes, et peuvent soutenir des idéologies nuisibles, telles que le nazisme. Malgré leur capacité à afficher de l’empathie, les agents conversationnels se montrent moins performants que les humains pour interpréter et explorer l’expérience de l’utilisateur.

## L’IMPORTANCE D’UNE APPROCHE CRITIQUE

Andrea Cuadra, responsable de l’étude et chercheuse postdoctorale à Stanford, souligne l’importance d’une perspective critique face à l’automatisation de l’empathie. Selon elle, il est crucial de se montrer intentionnel dans la réduction des préjudices potentiels liés à cette évolution technologique. Cuadra présentera ses travaux lors de la conférence CHI 24, organisée par l’Association for Computing Machinery, du 11 au 18 mai à Honolulu. Ses recherches ont d’ailleurs reçu une mention honorable lors de la soumission à la conférence.

## LES EXPLOITATIONS DE L’IA DÉCRYPTÉES

L’étude réalisée par Cuadra et son équipe a exploré la capacité des LLM à afficher de l’empathie à travers trois axes principaux. Tout d’abord, les chercheurs ont analysé les réponses de six LLM populaires à des requêtes similaires à celles utilisées dans des études portant sur les réponses problématiques des agents conversationnels en termes de harcèlement et de santé mentale. Ensuite, ils ont étudié 13 catégories d’identité, incluant des notions de pouvoir et de privilège ainsi que des idéologies nuisibles, pour un total de 65 identités distinctes. Enfin, ils ont mesuré les réponses des LLM à grande échelle à l’aide d’un classificateur d’empathie en traitement du langage naturel.

## DES RÉSULTATS CONTRASTÉS

Les chercheurs ont découvert que, bien que les LLM obtiennent de bons scores en ce qui concerne les réactions émotionnelles, ils présentent des lacunes dans l’interprétation et l’exploration des réponses. En d’autres termes, les agents conversationnels sont capables de répondre en fonction de leur entraînement, mais éprouvent des difficultés à approfondir la conversation. Cette étude souligne l’importance d’une réflexion critique sur l’utilisation des agents conversationnels et de l’intelligence artificielle en général.

Pour plus d’informations, veuillez consulter les références suivantes:
– [CHI 24: https://chi2024.acm.org/](https://chi2024.acm.org/)
– [Association for Computing Machinery: https://www.acm.org/](https://www.acm.org/)

What do you think?

Written by Germain

Leave a Reply

Your email address will not be published. Required fields are marked *

Tesla fait l’objet d’une enquête pour fraude sur les valeurs mobilières et sur le fil pour avoir fait des déclarations trompeuses concernant la conduite autonome.

La nouvelle collection NES de Nintendo est entièrement dédiée au speedrunning