in

Ère de l’IA : Tout ce que vous devez savoir sur l’intelligence artificielle


L’IA apparaît dans presque tous les domaines de la vie moderne, de la musique et des médias à l’entreprise et à la productivité, même dans les rencontres amoureuses. Il y a tellement de choses à suivre – alors continuez à lire pour découvrir tout, des derniers développements majeurs aux termes et aux sociétés que vous devez connaître pour rester à jour dans ce domaine en évolution rapide. Pour commencer, assurons-nous d’être tous sur la même longueur d’onde: qu’est-ce que l’IA? L’intelligence artificielle, également appelée apprentissage automatique, est un type de système logiciel basé sur les réseaux neuronaux, une technique qui a été pionnière il y a des décennies mais qui a récemment connu un essor grâce à de puissantes ressources informatiques nouvelles. L’IA a permis la reconnaissance vocale et d’image efficace, ainsi que la capacité de générer des images et des discours synthétiques. Et les chercheurs travaillent dur pour rendre possible à une IA de naviguer sur le web, réserver des billets, ajuster les recettes et plus encore. Oh, mais si vous vous inquiétez d’une montée des machines à la Matrix, ne vous inquiétez pas. Nous en parlerons plus tard! Notre guide de l’IA est divisé en trois parties principales, chacune d’entre elles étant mise à jour régulièrement et pouvant être lue dans n’importe quel ordre: d’abord, les concepts les plus fondamentaux que vous devez connaître ainsi que ceux qui sont plus récemment importants. Ensuite, un aperçu des principaux acteurs de l’IA et pourquoi ils sont importants. Et enfin, une liste sélectionnée des titres et développements récents dont vous devez être conscient. À la fin de cet article, vous serez à peu près aussi à jour que quiconque peut espérer l’être de nos jours. Nous le mettrons également à jour et l’élargirons à mesure que nous avancerons davantage dans l’ère de l’IA. IA 101 Crédits photo: Andrii Shyp / Getty Images L’une des choses étonnantes à propos de l’IA est que bien que les concepts de base remontent à plus de 50 ans, peu d’entre eux étaient familiers même aux personnes technophiles jusqu’à très récemment. Alors si vous vous sentez perdu, ne vous inquiétez pas – tout le monde l’est. Et une chose que nous voulons souligner: bien qu’elle s’appelle “intelligence artificielle”, ce terme est un peu trompeur. Il n’y a pas de définition précise de l’intelligence, mais ce que font ces systèmes est certainement plus proche des calculatrices que des cerveaux. L’entrée et la sortie de cette calculatrice sont simplement beaucoup plus flexibles. Vous pouvez penser à l’intelligence artificielle comme à une noix de coco artificielle – c’est de l’intelligence imitative. Ceci étant dit, voici les termes de base que vous trouverez dans toute discussion sur l’IA. Réseau neuronal Nos cerveaux sont en grande partie composés de cellules interconnectées appelées neurones, qui s’assemblent pour former des réseaux complexes qui accomplissent des tâches et stockent des informations. Recréer ce système étonnant dans un logiciel a été tenté depuis les années 60, mais la puissance de traitement nécessaire n’était pas largement disponible il y a 15 à 20 ans, lorsque les GPUs ont permis aux réseaux neuronaux définis numériquement de prospérer. Au fond, ce ne sont que beaucoup de points et de lignes: les points sont des données et les lignes sont des relations statistiques entre ces valeurs. Comme dans le cerveau, cela peut créer un système polyvalent qui prend rapidement une entrée, la passe à travers le réseau et produit une sortie. Ce système s’appelle un modèle. Modèle Le modèle est la collection réelle de code qui accepte des entrées et renvoie des sorties. La similitude avec un modèle statistique ou un système de modélisation qui simule un processus naturel complexe n’est pas fortuite. En IA, le modèle peut se référer à un système complet comme ChatGPT, ou à peu près n’importe quelle construction d’IA ou d’apprentissage automatique, quelle que soit sa fonction ou sa production. Les modèles peuvent être de différentes tailles, c’est-à-dire à la fois l’espace de stockage qu’ils occupent et la puissance de calcul qu’ils nécessitent. Et cela dépend de la façon dont le modèle est entraîné. Entraînement Pour créer un modèle d’IA, les réseaux neuronaux constituant la base du système sont exposés à un ensemble d’informations appelé ensemble de données. Ainsi, ces réseaux géants créent une représentation statistique de ces données. Ce processus d’entraînement est la partie la plus intensive en calcul, ce qui signifie qu’il faut des semaines ou des mois (vous pouvez y aller aussi longtemps que vous voulez) sur de gros ordinateurs puissants. La raison en est que non seulement les réseaux sont complexes, mais les ensembles de données peuvent être extrêmement volumineux: des milliards de mots ou d’images qui doivent être analysés et représentés dans le modèle statistique géant. En revanche, une fois que le modèle est terminé, il peut être beaucoup plus petit et moins exigeant lorsqu’il est utilisé, un processus appelé inférence. Crédits photo: Google Inférence Lorsque le modèle fait réellement son travail, on parle d’inférence, dans le sens traditionnel du terme: énoncer une conclusion en raison de preuves disponibles. Bien sûr, ce n’est pas exactement “raisonner”, mais plutôt connecter statistiquement les points dans les données qu’il a ingérées et, en effet, prédire le prochain point. Par exemple, en disant “Complétez la séquence suivante: rouge, orangé, jaune…”, il trouverait que ces mots correspondent au début d’une liste qu’il a ingérée, les couleurs de l’arc-en-ciel, et en déduit les éléments suivants jusqu’à ce qu’il ait produit le reste de cette liste. L’inférence est généralement beaucoup moins coûteuse en termes de calcul que l’entraînement: on peut la comparer à la recherche dans un catalogue plutôt qu’à son assemblage. Les grands modèles doivent encore être exécutés sur des supercalculateurs et des GPUs, mais les plus petits peuvent être exécutés sur un smartphone ou quelque chose de plus simple. IA générative Tout le monde parle d’IA générative, et ce terme large signifie simplement un modèle d’IA qui produit une sortie originale, comme une image ou du texte. Certains IA résument, d’autres réorganisent, d’autres identifient, et ainsi de suite – mais une IA qui génère réellement quelque chose (qu’elle “crée” ou non est discutable) est particulièrement populaire en ce moment. Mais n’oubliez pas que le fait qu’une IA ait généré quelque chose ne signifie pas que c’est correct, ou même que cela reflète la réalité! Seulement qu’il n’existait pas avant que vous ne le demandiez, comme une histoire ou une peinture. Les termes les plus importants d’aujourd’hui Au-delà des bases, voici les termes d’IA les plus pertinents à la mi-2023. Grand modèle de langage La forme la plus influente et polyvalente d’IA disponible aujourd’hui, les grands modèles de langage sont formés sur à peu près tout le texte constituant le web et une grande partie de la littérature anglaise. En ingérant tout cela, ils donnent un modèle de base (lisez la suite) d’une taille énorme. Les grands modèles de langage sont capables de converser et de répondre à des questions en langage naturel et d’imiter une variété de styles et de types de documents écrits, comme le démontrent ChatGPT, Claude et LLaMa. Bien que ces modèles soient indéniablement impressionnants, il faut se rappeler qu’ils restent des moteurs de reconnaissance de motifs, et quand ils répondent, c’est une tentative de compléter un motif qu’ils ont identifié, que ce motif reflète ou non la réalité. Les grands modèles de langage hallucinent fréquemment dans leurs réponses, ce à quoi nous reviendrons sous peu. Si vous voulez en savoir plus sur les grands modèles de langage et ChatGPT, nous avons tout un autre article sur ceux-ci! Modèle de base Former un énorme modèle à partir de zéro sur de gros ensembles de données est coûteux et complexe, et vous ne voulez donc pas le faire plus que nécessaire. Les modèles de base sont les gros modèles qui nécessitent des supercalculateurs pour fonctionner, mais ils peuvent être réduits pour s’adapter à des conteneurs plus petits, généralement en réduisant le nombre de paramètres. Vous pouvez penser à ces derniers comme étant le nombre total de points sur lesquels le modèle doit travailler, et de nos jours, ce nombre peut être de plusieurs millions, milliards ou même trillions. Ajustement fin Un modèle de base comme GPT-4 est intelligent, mais il est aussi généraliste par conception – il a absorbé tout, de Dickens à Wittgenstein en passant par les règles de Donjons et Dragons, mais tout cela ne sert à rien si vous voulez qu’il vous aide à rédiger une lettre de motivation pour votre CV. Heureusement, les modèles peuvent être ajustés finement en leur donnant un peu de formation supplémentaire à l’aide d’un ensemble de données spécialisé, par exemple quelques milliers de candidatures à un emploi qui traînent par hasard. Cela donne au modèle une bien meilleure idée de comment vous aider dans ce domaine sans jeter les connaissances générales qu’il a collectées à partir du reste de ses données d’entraînement. L’apprentissage par renforcement à partir des commentaires humains, ou RLHF, est un type spécial d’affinage que vous entendrez beaucoup…

What do you think?

Written by Barbara

Leave a Reply

Your email address will not be published. Required fields are marked *

Dr. ChatGPT S’interface avec vous maintenant.

La SEC poursuit en justice la plateforme d’échange de cryptomonnaies Coinbase pour violation des lois sur les valeurs mobilières aux États-Unis.