Connect with us

La menace des « chatbots » manipulateurs

nkju7e

Sciences

La menace des « chatbots » manipulateurs

La menace des « chatbots » manipulateurs

nkju7e

Avec leurs icônes souriantes, leur façon de s’exprimer poliment sous forme de textos sans fautes, dans des bulles aux couleurs douces, ils n’ont l’air de rien. « Ils », ce sont les agents conversationnels, ou chatbots, ou encore assistants virtuels ou vocaux, qui fleurissent sur les mobiles, les messageries ou réseaux sociaux, les sites Web, pour guider les utilisateurs, répondre à leurs questions les plus fréquentes, les informer sur la pandémie…

Mais à lire le dernier avis du Comité national pilote d’éthique du numérique (CNPEN) du 9 novembre, ces inoffensifs robots sont porteurs de plusieurs risques qu’il s’agit de réguler, étudier ou anticiper. D’autant que la nouvelle génération, nourrie des dernières avancées de l’intelligence artificielle dans la compréhension et la génération du langage, promet des améliorations susceptibles d’augmenter ces risques. En rapprochant encore plus l’artifice du naturel, ces nouvelles versions brouillent aussi les frontières entre humain et machine.

« C’est, à notre connaissance, la première fois au monde qu’un texte produit est centré sur les questions éthiques posées par ces agents conversationnels », estime Claude Kirchner, le président du CNPEN. Autre originalité de cet avis, il ajoute à la traditionnelle liste de recommandations un catalogue de questions de recherche et de conseils aux concepteurs de chatbot, invités à s’interroger très en amont sur leurs créatures. Si ces réflexions précoces avaient animé les ingénieurs de Microsoft en 2016, ils n’auraient sans doute pas lancé leur robot Tay sur Twitter. En quelques heures, avant d’être débranché, celui-ci a produit des tweets racistes et insultants.

L’avis du CNPEN invite donc les ingénieurs à réduire les biais (de genre, de langage…) de leurs robots, et les chercheurs à travailler sur la détection automatique des propos non désirables, et à développer des méthodes d’évaluation de ces agents. Côté préconisations, il suggère d’éviter qu’un robot réponde à une insulte par une insulte et aussi qu’il ne rapporte pas à son fabricant le comportement de cet utilisateur.

« La première décision à prendre est d’informer l’utilisateur qu’il parle avec une machine. La Californie l’a fait et les débats ont été assez tendus », rappelle Laurence Devillers, professeure à Sorbonne Université, corapporteuse de l’avis avec Alexei Grinbaum (CEA). Leur texte suggère aussi de limiter les personnifications de ces robots et de laisser la possibilité à l’utilisateur de changer le genre, le nom, la voix de l’assistant virtuel. Mais l’avis prend un ton plus sombre sur deux domaines d’applications encore émergents. D’une part les agents « manipulateurs », et d’autre part les avatars qui font parler les morts, deadbots en anglais.

Il vous reste 48.96% de cet article à lire. La suite est réservée aux abonnés.

Continue Reading
You may also like...
Click to comment

You must be logged in to post a comment Login

Leave a Reply

More in Sciences

Trending

On en parle

To Top
Recherche.fr