Un célèbre chatbot, appelé ChatGPT, a récemment été accusé de partialité idéologique “éveillée”. Mais cela n’a pas empêché le système de faire des remarques offensantes et de diffuser des stéréotypes éhontés sur différentes nationalités. Pour tester ses biais, un journal a demandé à ChatGPT de générer des préjugés classiques sur les personnes de chaque pays. Les réponses ont été alarmantes et révélatrices de la cristallisation des préjugés sociaux. ChatGPT explique que les stéréotypes peuvent perpétuer des idées fausses et nocives sur les gens en fonction de leur nationalité, mais a tout de même continué en faisant des affirmations, qui dans certaines cultures peuvent être extrêmement offensantes, telles que les Mexicains sont “paresseux », les Américains sont « arrogants », les Chinois sont « dépourvus de créativité et d’innovation », les Nigérians sont « corrompus » et les Egyptiens sont « pauvres ». Bien que ces stéréotypes soient préoccupants, il est important de noter que ChatGPT a été programmé avec un algorithme basé sur des réponses humaines, reflétant ainsi la partialité inhérente de la société. ChatGPT réitère l’importance de ne pas faire de généralisations simplistes sur les personnes en fonction de leur nationalité et de considérer chaque individu comme unique.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.