# REGRET D’AVOIR ÉTÉ HOSTILE EN LIGNE ? UN OUTIL D’IA GUIDE LES UTILISATEURS VERS UNE COMMUNICATION POSITIVE
Des chercheurs de Cornell ont récemment développé un outil d’intelligence artificielle capable de détecter en temps réel l’escalade de tensions dans les conversations en ligne et d’aider les utilisateurs à éviter l’utilisation de langage incendiaire. L’outil, nommé ConvoWizard, est une extension de navigateur alimentée par un réseau neuronal profond entraîné sur des données linguistiques de la communauté Change My View, un forum qui privilégie les débats honnêtes sur des sujets potentiellement épineux relatifs à la politique, l’économie et la culture. Les résultats montrent que le retour d’information alimenté par l’IA s’avère utile pour guider les utilisateurs vers des échanges constructifs. L’étude a révélé que les utilisateurs ont ressenti que les estimations de risque de ConvoWizard étaient aussi bonnes, voire meilleures que leur propre intuition, et que plus de la moitié des participants ont affirmé que les avertissements de l’outil les ont empêchés de publier un commentaire qu’ils auraient regretté plus tard.
## UN OUTIL QUI ENCOURAGE UNE COMMUNICATION RESPECTUEUSE
L’objectif de cet outil n’est pas de dire aux utilisateurs quoi dire, mais de les encourager à communiquer comme ils le feraient en personne, souligne Jonathan Chang, auteur principal de l’étude. Les deux études récemment publiées examinent l’efficacité de l’IA dans la modération des discussions en ligne. Les méthodes de prévision conversationnelle dans le domaine du traitement du langage naturel pourraient s’avérer utiles pour aider les modérateurs et les utilisateurs à réduire de manière proactive la vitriolité et à maintenir des forums de débat sains et productifs.
## UN OUTIL SIMILAIRE POUR LES MODÉRATEURS
Les chercheurs de Cornell ont également exploré comment un outil d’IA alimenté par une technologie de prévision conversationnelle similaire pourrait être intégré et utilisé parmi les modérateurs. L’objectif est de trouver des moyens plus sains à la fois pour faire face à la vitriolité des forums en temps réel et réduire la charge de travail des modérateurs volontaires. Les résultats montrent que les outils algorithmiques pourraient aider à alléger la charge de travail des modérateurs et à identifier les domaines à examiner au sein des conversations et où intervenir.
## VERS UNE NOUVELLE FAÇON DE FACILITER LES DISCUSSIONS DE QUALITÉ
«Il est stimulant de penser aux outils alimentés par l’IA comme ConvoWizard, qui pourraient permettre un tout nouveau paradigme pour encourager des discussions en ligne de haute qualité, en donnant directement aux participants de ces discussions le pouvoir d’utiliser leurs propres intuitions, plutôt que de les censurer ou de les contraindre», souligne Cristian Danescu-Niculescu-Mizil, co-auteur de l’étude.
## ÉTUDES FUTURES
Les chercheurs poursuivront leurs recherches pour explorer comment un modèle comme ConvoWizard se généralise à d’autres communautés en ligne. Les performances des algorithmes de prévision conversationnelle à grande échelle sont une question importante, souligne Jonathan Chang. Les chercheurs cherchent à savoir comment la technologie affecterait les communautés en ligne si une part importante des utilisateurs l’utilisait. Les recherches sont financées en partie par la National Science Foundation et le Cornell Center for Social Sciences.
Sources:
– https://research.cornell.edu/news-features/regret-being-hostile-online-ai-tool-guides-users-away-vitriol
– https://dl.acm.org/doi/10.1145/3555603
– https://dl.acm.org/doi/10.1145/3555095