Les aperçus de l’IA de Google peuvent produire des informations médicales erronées.

L’introduction de l’outil de recherche AI Overviews par Google : une erreur coûteuse

Le mois dernier, lorsque Google a présenté son nouvel outil de recherche IA, appelé AI Overviews, la société semblait confiante d’avoir suffisamment testé l’outil, notant dans l’annonce que "les gens ont déjà utilisé AI Overviews des milliards de fois à travers notre expérience dans les laboratoires de recherche". Cet outil ne se contente pas de retourner des liens vers des pages web, comme dans une recherche Google typique, mais renvoie une réponse générée à partir de diverses sources, auxquelles il lie en-dessous de la réponse. Cependant, juste après le lancement, les utilisateurs ont commencé à publier des exemples de réponses extrêmement erronées, notamment une recette de pizza incluant de la colle et le fait intéressant qu’un chien aurait joué dans la NBA.

Renée DiResta : une experte en désinformation en ligne

Pendant que la recette de pizza risque peu de convaincre quiconque d’ajouter de la colle Elmer’s, toutes les réponses extrêmement erronées de AI Overview ne sont pas aussi évidentes – et certaines pourraient être très dangereuses. Renée DiResta, qui traque la désinformation en ligne depuis de nombreuses années en tant que directrice de recherche technique à l’Observatoire Internet de Stanford, a partagé ses réflexions sur les défis posés par les outils de recherche IA comme AI Overviews.

Les implications de la désinformation médicale via l’IA

DiResta souligne que si les modèles linguistiques de grande taille peuvent générer des hallucinations, leur déploiement dans un contexte de recherche est problématique car les gens attendent des moteurs de recherche des informations autoritatives. Elle met en lumière le risque de diffusion de fausses informations médicales via des outils de recherche IA, soulignant que Google doit maintenir des normes élevées en matière d’informations sur la santé. Elle exprime des inquiétudes concernant la possibilité que des résultats de recherche erronés soient tirés de cliniques peu scrupuleuses.

L’importance des normes de recherche en santé

DiResta souligne l’importance de la politique "Your Money or Your Life" de Google pour garantir des résultats de recherche de qualité en matière de santé, soulignant que les résultats générés par l’IA ne respectent pas nécessairement ces normes. Elle met en lumière la nécessité pour Google de renforcer ses protocoles pour éviter la désinformation médicale via les outils de recherche IA.

Les actions nécessaires pour contrer la désinformation médicale

En conclusion, DiResta suggère que Google doit se conformer à sa politique éthique existante pour éviter la propagation de fausses informations médicales via les outils de recherche IA. Elle souligne que l’éthique doit rester au cœur du développement de ces nouvelles technologies pour garantir des résultats fiables et de haute qualité.

Source: IEEE Spectrum

What do you think?

Written by Mathieu

Leave a Reply

Your email address will not be published. Required fields are marked *

Les panneaux solaires de cet ingénieur battent des records d’efficacité.

Comment l’IA générative pourrait réparer Siri, Alexa et, espérons-le, Google Assistant également