in

Dr. ChatGPT S’interface avec vous maintenant.

Si vous êtes une personne typique qui a beaucoup de questions médicales et pas assez de temps avec un médecin pour les poser, vous vous êtes peut-être déjà tourné vers ChatGPT pour obtenir de l’aide. Avez-vous demandé à ChatGPT d’interpréter les résultats de cet examen de laboratoire que votre médecin a commandé? Celui qui est revenu avec des chiffres indéchiffrables? Ou peut-être avez-vous décrit des symptômes que vous avez ressentis et demandé un diagnostic. Dans ce cas, le chatbot a probablement répondu quelque chose comme: “Je suis une IA et pas un médecin”, suivi de conseils raisonnables du moins. ChatGPT, le chatbot remarquablement compétent d’OpenAI, a toujours du temps pour vous et a toujours des réponses. Qu’ils soient les bonnes réponses… eh bien, c’est une autre question.

Une question était principale dans son esprit : “Comment pouvons-nous tester cela afin de l’utiliser de la manière la plus sûre possible ?”. Pendant ce temps, les médecins utilisent apparemment cela pour traiter les tâches administratives telles que les lettres aux compagnies d’assurance, et aussi pour trouver les bons mots à dire aux patients dans des situations difficiles. Pour comprendre comment ce nouveau mode d’IA affectera la médecine, IEEE Spectrum a parlé avec Isaac Kohane, président du département d’informatique biomédicale de la Harvard Medical School. Kohane, médecin praticien titulaire d’un doctorat en informatique, a eu un accès précoce à GPT-4, la dernière version du modèle de langage puissant qui alimente ChatGPT. Il a fini par écrire un livre à ce sujet avec Peter Lee, vice-président de la recherche et des incubations de Microsoft, et Carey Goldberg, journaliste en sciences et médecine.

Dans le nouveau livre, La révolution de l’IA en médecine : GPT-4 et au-delà, Kohane décrit ses tentatives pour mettre GPT-4 en difficulté avec des cas difficiles, et réfléchit également à la façon dont cela pourrait changer sa profession. Il écrit qu’une question est devenue primordiale dans son esprit : “Comment pouvons-nous tester cela afin de l’utiliser de la manière la plus sûre possible ?”.

Isaac Kohane : Comment avez-vous été impliqué dans le test de GPT-4 avant son lancement public ?

Isaac Kohane : J’ai reçu un appel en octobre de Peter Lee qui m’a dit qu’il ne pouvait même pas me dire de quoi il allait me parler. Et il m’a donné plusieurs raisons pour lesquelles cela devait être une discussion très secrète. Il m’a également partagé qu’en plus de son enthousiasme à ce sujet, il était extrêmement perplexe, perdant le sommeil à cause du fait qu’il ne comprenait pas pourquoi cela fonctionnait aussi bien. Et il voulait avoir une conversation avec moi à ce sujet, car les soins de santé étaient un domaine qui l’intéressait depuis longtemps. Et il savait que c’était un intérêt de longue date pour moi, car j’ai fait ma thèse de doctorat sur les systèmes experts dans les années 1980. Et il savait aussi que je commençais une nouvelle revue, NEJM AI.

“Ce que je n’ai pas partagé dans le livre, c’est qu’il a argumenté avec moi. À un moment donné de l’enquête, je pensais qu’il avait fait un mauvais choix, mais il a réussi à argumenter avec moi. Et il n’a vraiment pas reculé.” – Isaac Kohane, Harvard Medical School

Il pensait que la médecine était un bon domaine à discuter, car il y avait à la fois des dangers évidents mais aussi des avantages évidents pour le public. Avantages : s’il améliorait les soins de santé, l’autonomie des patients, la productivité des médecins. Et dangers : si des choses qui étaient déjà apparentes à cette époque, comme les inexactitudes et les hallucinations, influençaient le jugement clinique.

Vous avez décrit dans le livre vos premières impressions. Pouvez-vous parler de l’émerveillement et des préoccupations que vous avez ressentis ?

Kohane : Oui. J’ai décidé de prendre Peter au mot à propos de cette performance vraiment impressionnante. J’ai donc directement abordé le sujet et lui ai donné un cas vraiment difficile et controversé dont je me souviens bien de ma formation. J’ai été appelé à la nurserie parce qu’ils avaient un bébé avec un petit phallus et un scrotum qui n’avait pas de testicules à l’intérieur. Et c’est une situation très tendue pour les parents et les médecins. Et c’est aussi un domaine où les connaissances sur la façon de le résoudre couvrent la pédiatrie, mais aussi la compréhension de l’action des hormones, la compréhension des gènes associés à ces actions hormonales qui sont susceptibles de dérailler. Et j’ai tout mis dans le mélange. J’ai traité GPT-4 comme s’il était juste un collègue et j’ai dit : “D’accord, voici un cas, que feriez-vous ensuite ?” Et ce qui m’a choqué, c’est qu’il répondait comme quelqu’un qui avait suivi non seulement une formation médicale, mais aussi une formation en pédiatrie très spécifique, ainsi qu’en biologie moléculaire. Je ne dis pas qu’il comprenait, mais il se comportait comme quelqu’un qui comprenait.

Et c’était particulièrement stupéfiant parce que en tant que chercheur en IA et quelqu’un qui comprenait comment fonctionne un modèle de transformation, d’où diable tirait-il cela? Et ce n’est certainement pas un cas que quiconque connaît. Je n’ai jamais publié ce cas.

Et cela, franchement, c’était avant qu’OpenAI n’aligne le modèle. Donc, il était beaucoup plus indépendant et indépendant. Ce que je n’ai pas partagé dans le livre, c’est qu’il a argumenté avec moi. À un moment donné de l’enquête, je pensais qu’il avait fait un mauvais choix, mais il a réussi à argumenter avec moi. Et il n’a vraiment pas reculé. Mais OpenAI l’a maintenant aligné, donc c’est beaucoup plus du genre à suivre le courant, l’utilisateur doit avoir raison. Mais c’était de la science-fiction à pleine puissance, un médecin dans une boîte.

Avez-vous constaté certains des inconvénients que Peter Lee avait mentionnés ?

Kohane : Quand je demandais des références, il les inventait. Et je me disais, d’accord, cela va être incroyablement difficile, car voici quelque chose qui montre une réelle expertise dans un problème difficile et qui serait idéal pour un deuxième avis pour un médecin et pour un patient. Pourtant, à des moments inattendus, il invente des choses. Comment allons-nous intégrer cela dans la pratique ? Et nous avons déjà du mal avec l’IA étroite à obtenir une supervision réglementaire. Je ne sais pas comment nous allons faire cela.

Vous avez dit que GPT-4 ne comprend peut-être pas du tout, mais il se comporte comme quelqu’un qui comprend. C’est là que ça devient crucial, n’est-ce pas ?

Kohane : Oui. Et bien qu’il soit amusant de parler de savoir s’il s’agit d’une AGI ou non, je pense que c’est presque une question philosophique. En tant qu’ingénieur, est-ce que cela remplace un excellent deuxième avis ? Et la réponse est souvent : oui. Est-ce qu’il agit comme s’il en savait plus sur la médecine qu’un généraliste moyen ? Oui. C’est donc le défi. Comment gérons-nous cela ? Que ce soit une AGI “vraiment consciente” est peut-être une question importante, mais ce n’est pas celle sur laquelle je me concentre.

Vous avez mentionné qu’il y a déjà des difficultés à obtenir des réglementations pour l’IA étroite. Quelles organisations ou hôpitaux auront l’audace de continuer et d’essayer de mettre cette chose en pratique ? Il semble que, compte tenu des questions de responsabilité, cela va être un défi très difficile.

Kohane : Oui, c’est le cas, mais ce qui est incroyable à ce sujet – et je ne sais pas si c’était l’intention d’OpenAI et de Microsoft – mais en le mettant en libre accès pour que des millions de médecins et de patients puissent l’essayer, cela a déjà déclenché un débat qui va le rendre possible de toute façon. Et que veux-je dire par là ? D’un côté, regardez du côté des patients. À l’exception de quelques chanceux qui sont particulièrement bien connectés, vous ne savez pas qui vous donne le meilleur conseil. Vous avez des questions après une visite, mais vous n’avez personne pour y répondre. Vous n’avez pas assez de temps pour parler à votre médecin. Et c’est pourquoi, avant l’apparition de ces modèles génératifs, les gens utilisent tout le temps une recherche simple pour des questions médicales. La phrase populaire était “Dr Google”. Et le fait est qu’il y avait beaucoup de sites Web problématiques qui étaient trouvés par ce moteur de recherche. Dans ce contexte, en l’absence d’un accès suffisant à des opinions autorisées de professionnels, les patients vont l’utiliser tout le temps.

“We know that doctors are using this. Now, the hospitals are not endorsing this, but doctors are tweeting about things that are probably illegal.” – Isaac Kohane, Harvard Medical School

C’est…

What do you think?

Written by Mathieu

Leave a Reply

Your email address will not be published. Required fields are marked *

Critique de « Mes aventures avec Superman » : un enchantement charmant inspiré du shonen

Ère de l’IA : Tout ce que vous devez savoir sur l’intelligence artificielle