in

Risque avancé de l’IA pour l’humanité : Lettre ouverte.


RISQUES ASSOCIÉS À L’IA AVANCÉE : UNE LETTRE OUVERTE EN APPELLE À UNE PAUSE DE SIX MOIS
Un groupe d’experts et de dirigeants en intelligence artificielle (IA) ont lancé un appel en faveur d’une pause de six mois dans le développement de systèmes plus avancés que GPT-4, lancé récemment par OpenAI. Cette lettre ouverte cite les risques pour la société. De grands noms de la technologie ont ajouté leur signature à la lettre, dont Steve Wozniak, co-fondateur d’Apple, Elon Musk, PDG de SpaceX, Tesla et Twitter, des chercheurs chez DeepMind, Yoshua Bengio (un des “pères fondateurs de l’IA”) et le professeur Stuart Russell, un pionnier de la recherche dans le domaine. Cependant, il y a eu des absents notables parmi les signataires, dont le PDG d’Alphabet Sundar Pichai, le PDG de Microsoft Satya Nadella et le PDG d’OpenAI, Sam Altman. Les experts de haut niveau, les universitaires et les dirigeants expriment leur inquiétude quant à l’avancée de l’IA, avec des systèmes désormais en mesure d’accomplir des tâches générales de manière compétitive avec les humains. Les signataires s’interrogent sur les effets de l’IA sur la propagande, les emplois, la création de systèmes non humains qui pourraient éventuellement nous surclasser et sur la perte de contrôle de notre civilisation. “Les décisions ne doivent pas être déléguées aux dirigeants technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables”, indique la lettre. Les signataires demandent donc à toutes les équipes de recherche travaillant sur l’IA de suspendre immédiatement et pour au moins six mois la production de systèmes plus puissants que GPT-4 et que cette pause soit publique et vérifiable. Toutefois, certains experts remettent en question la réalité d’un tel arrêt de développement de l’IA et estiment qu’il sera difficile de l’arrêter ou de le mettre en pause.

APPEL À LA RÉGLEMENTATION DE L’IA
L’intérêt pour l’IA a récemment augmenté grâce à la popularité de chatbots comme ChatGPT d’OpenAI et Bard de Google, ce qui suscite des inquiétudes concernant la surveillance et la réglementation de la technologie. Le mois dernier, la Chambre de commerce américaine a appelé à la réglementation de la technologie d’IA, et cette semaine, le gouvernement britannique a présenté ses propres projets de réglementation des systèmes d’IA “adaptatifs”. Des avertissements concernant les dangers de l’IA ont été émis par Elon Musk, Steve Wozniak et le regretté professeur Stephen Hawking précédemment. Par le passé, Musk a déclaré que l’IA pourrait représenter une menace réelle pour les humains s’il n’était pas réglementé. En 2014, il a tweeté que l’IA pourrait évoluer pour être “potentiellement plus dangereuse que les armes nucléaires”. En 2015, Musk a fait un don de 10 millions de dollars à l’Institut pour l’avenir de la vie, une conseil consultatif sans but lucratif dédié à évaluer le potentiel de la technologie d’IA pour le bénéfice de l’humanité.

LA MISE EN GARDE DES EXPERTS
Le professeur Hawking avait également averti que l’intelligence artificielle pourrait être la cause de la fin de la vie telle que nous la connaissons sur Terre et a prédit que l’humanité n’avait plus que 100 ans avant que les machines ne prennent le dessus. Pour sa part, Steve Wozniak avait prédit il y a huit ans que dans le futur, le monde serait contrôlé par l’IA et que les robots traiteraient les humains comme des animaux domestiques. Toutefois, des experts ont remis en question la faisabilité d’une pause de six mois dans le développement de l’IA avancée. “Bien que le développement de l’IA soit plus rapide et ait un impact plus large que prévu, il est naïf de croire qu’il peut être arrêté ou même mis en pause”, a déclaré Frederik Mennes, directeur de la gestion des produits et de la stratégie commerciale chez OneSpan. “S’il est nécessaire de réglementer la technologie, cela peut être développé en parallèle”, a-t-il conclu.

LES RISQUES ASSOCIÉS À L’IA AVANCÉE
Dan Shiebler, chef de l’apprentissage automatique chez Abnormal Security, a souligné les deux principaux risques associés à l’IA avancée, mais estime que le développement de la technologie continuera malgré l’appel à la pause. “Les modèles d’IA contemporains sont de plus en plus compétitifs par rapport aux humains, et nous devons nous demander si nous devrions laisser les machines inonder nos canaux d’information avec de la propagande et des mensonges, automatiser tous les emplois, y compris les plus épanouissants, ou risquer de perdre le contrôle de notre civilisation”, a déclaré Shiebler. “Dans mon esprit, des technologies telles que les grands modèles de langage présentent deux types de risques graves et immédiats”, a-t-il ajouté. “Le premier risque est que les modèles eux-mêmes sont des outils puissants pour les spammeurs pour inonder Internet avec du contenu de faible qualité ou pour les criminels pour améliorer leurs escroqueries d’ingénierie sociale, les attaques de cyber sécurité compris”, a-t-il expliqué. “Le deuxième risque est que les modèles sont trop puissants pour les entreprises pour ne pas les utiliser, mais trop peu matures pour les utiliser en toute sécurité”, a-t-il conclu. Les entreprises risquent d’être la cible d’injections de fausses instructions malveillantes dans leurs réponses, ajoutant une nouvelle menace à leur sécurité.

Sources : BBC News, CNET, The Guardian

What do you think?

Written by Pierre T.

Leave a Reply

Your email address will not be published. Required fields are marked *

Génie – Simplifiez votre processus de création de contenu avec l’IA dans Figma.

Elon Musk prétend travailler sur le projet nommé ‘TruthGPT’ – une intelligence artificielle de recherche de la vérité maximale.