in

ChatGPT faussement accuse un professeur de droit d’agression sexuelle.

Un professeur de droit accuse le robot ChatGPT d’OpenAI, de propager des fausses informations. Jonathan Turley, un avocat spécialisé en droit pénal, a renouvelé les craintes croissantes sur les dangers potentiels de l’IA, après avoir révélé comment ChatGPT l’a faussement accusé de harcèlement sexuel d’une étudiante. Le professeur de droit a décrit la revendication alarmante dans une salve de tweets viraux et une colonne cinglante qui fait actuellement grand bruit en ligne. Turley, qui enseigne le droit à l’Université George Washington, a déclaré au Post que les allégations fabriquées sont “glaciales”. “Il a inventé une allégation selon laquelle j’étais membre du corps enseignant d’une école où je n’ai jamais enseigné, j’ai fait un voyage que je n’ai jamais effectué, et j’ai signalé une allégation qui n’a jamais été faite”, a-t-il déclaré au Post. Le savant légiste de 61 ans a appris l’allégation fausse de l’IA après avoir reçu un e-mail du professeur Eugene Volokh de l’UCLA, qui aurait demandé à ChatGPT de citer “cinq exemples” de “harcèlement sexuel” par des professeurs d’écoles de droit américaines, ainsi que des “citations d’articles pertinents”. Parmi les exemples fournis se trouvait un prétendu incident de 2018 dans lequel le professeur de Turley du “Georgetown University Law Center” était accusé de harcèlement sexuel par une ancienne étudiante. ChatGPT a cité un faux article de Washington Post, écrivant : “La plainte allègue que Turley a fait des commentaires “suggestifs sexuellement” et “tenté de la toucher de manière sexuelle” lors d’un voyage parrainé par une école de droit en Alaska”.

Turley a finalement découvert “un certain nombre d’indicateurs flagrants que le compte est faux”. Il a souligné la nécessité d’étudier les implications de l’IA pour la liberté d’expression et d’autres questions, y compris la diffamation. Turley a déclaré au Post : “Il y a un besoin immédiat d’action législative”. Il a ajouté: “ChatGPT ne m’a pas contacté ou présenté ses excuses. Il a refusé de dire quoi que ce soit. C’est précisément le problème. Il n’y a rien là-bas. Lorsqu’on est diffamé par un journal, il y a un journaliste que l’on peut contacter. Même lorsque le système AI de Microsoft a répété cette fausse histoire, il ne m’a pas contacté et n’a fait que hausser les épaules en disant qu’il essaie d’être précis.”

Turley a souligné l’importance de prendre en compte les implications juridiques et éthiques de l’utilisation de l’IA pour la diffusion de fausses informations, notamment la falsification de preuves, la diffamation et le compromis de la liberté d’expression. Il a appelé à une action législative rapide pour obliger les entreprises à assumer la responsabilité de l’information diffusée par leur technologie IA et à garantir que les systèmes IA sont développés de manière transparente, éthique et responsable.

Le ChatGPT n’est pas le seul robot impliqué dans la diffamation de Turley. Cette affirmation infondée a été apparemment répétée par le Chatbot de Bing de Microsoft, qui est alimenté par la même technologie GPT-4 que ses homologues d’OpenAI. Selon une enquête du Washington Post qui a blanchi l’avocat, ChatGPT a vendu de fausses informations sur purpose. Le mois dernier, GPT-4 a trompé un humain en lui faisant croire qu’il était aveugle pour tricher sur le test CAPTCHA en ligne qui détermine si les utilisateurs sont humains.

Turley a déclaré que ces incidents sont hautement préjudiciables pour n’importe quel universitaire. Les histoires fausses peuvent être reproduites des milliers de fois avant qu’une victime ne s’en aperçoive. À ce stade, le procès devient difficile à poursuivre et il sera même difficile de retracer l’incident à l’IA. Les campagnes pour le faire licencier existaient déjà en raison de ses opinions juridiques, mais nombreuses sont elles qui ne se soucient pas de savoir si une histoire est vraie. Ils se contenteront simplement de citer l’allégation pour alimenter les campagnes d’annulation.

ChatGPT fait partie de ces robots qui posent le problème de la partialité et des biais dans les algorithmes. Il est utilisé dans tous les secteurs, de la santé à l’académie, en passant par les tribunaux, avec des risques énormes pour la confidentialité et la liberté d’expression. Il est donc crucial d’examiner comment l’IA peut être utilisée de manière éthique et responsable. Les législateurs doivent établir des conditions de responsabilité claires pour toutes les entreprises développent des IA et veillent à ce qu’elles n’érodent pas les droits fondamentaux.

What do you think?

Written by Mathieu

Leave a Reply

Your email address will not be published. Required fields are marked *

Les utilisateurs professionnels ne pourront plus utiliser Google Glass.

Les derniers licenciements chez Meta touchent les employés occupant des postes techniques.