A NEW KIND OF ENGINEERING: VERS UNE NOUVELLE APPROCHE DE LA MODÉLISATION DES PROCESSUS DE PENSÉE DES AGI MICRO LLM
En avril 2023, des frameworks tels que Langchain pionnent des cas d’utilisation de plus en plus complexes pour les modèles de langage de grande envergure (LLM). Les agents logiciels augmentés de capacités de raisonnement basées sur les LLM ont récemment commencé la course vers une intelligence artificielle (IA) de niveau humain.
Les agents sont un modèle de systèmes logiciels : ce sont des algorithmes qui peuvent prendre des décisions et interagir de manière relativement autonome avec leur environnement. Dans le cas des agents Langchain, l’environnement est généralement constitué d’interfaces texte entrée/texte sortie sur Internet, avec l’utilisateur ou avec d’autres agents et outils.
D’autres projets ont commencé à travailler sur des résolutions de problèmes plus générales (une sorte d’AGI artificielle générale micro – un système IA qui approche les capacités de raisonnement de niveau humain). Bien que l’incarnation actuelle de ces systèmes soit encore assez monolithique en ce qu’elle vient en un seul morceau de logiciel qui prend des objectifs/tâches/idées comme entrée, il est facile de voir dans leur exécution qu’ils reposent sur plusieurs sous-systèmes distincts sous le capot.
UN PARADIGME DE MODÉLISATION DES PROCESSUS DE PENSÉE
Le nouveau paradigme que nous voyons avec ces systèmes est qu’ils modélisent les processus de pensée : “penser de manière critique et examiner vos résultats”, “consulter plusieurs sources”, “réfléchir à la qualité de votre solution”, “déboguer en utilisant des outils externes”, … ce sont des approches proches de celles qu’un être humain utiliserait également.
Dans la vie quotidienne (humaine), nous embauchons des experts pour faire des travaux qui nécessitent une expertise spécifique. Et ma prédiction est qu’à l’avenir proche, nous embaucherons une sorte d’ingénieurs cognitifs pour modéliser les processus de pensée des AGI, probablement en construisant des systèmes multi-agents spécifiques pour résoudre des tâches spécifiques avec une meilleure qualité.
Grâce à la façon dont nous travaillons déjà avec les LLM aujourd’hui, nous faisons déjà cela – modéliser les processus cognitifs. Nous le faisons de manière spécifique, en utilisant l’ingénierie des prompts et beaucoup de résultats de champs de recherche adjacents, pour atteindre une qualité de sortie requise. Même si ce que j’ai décrit ci-dessus peut sembler futuriste, c’est déjà la norme.
OÙ ALLONS-NOUS À PARTIR DE LÀ ?
Nous verrons probablement des systèmes d’IA de plus en plus intelligents qui pourraient même surpasser le niveau humain à un moment donné. Et plus ils seront intelligents, plus il sera difficile de les aligner sur nos objectifs – ce que nous voulons qu’ils fassent. L’alignement de l’AGI et les préoccupations de sécurité avec des IA surpuissantes et désalignées sont déjà un domaine de recherche très actif, et les enjeux sont élevés – comme l’explique en détail Eliezer Yudkowski.
Mon intuition est que les systèmes plus petits, c’est-à-dire les systèmes “plus idiots”, sont plus faciles à aligner et livreront donc un résultat avec une certaine qualité avec une probabilité plus élevée. Et ce sont précisément les systèmes que nous pouvons construire en utilisant l’approche de l’ingénierie cognitive.
Nous devrions obtenir une bonne compréhension expérimentale de la façon de construire des systèmes AGI spécialisés.
À partir de cette expérience, nous devrions créer et itérer les bonnes abstractions pour mieux permettre la modélisation de ces systèmes.
Une fois les abstractions en place, nous pouvons commencer à créer des blocs de construction de pensée réutilisables, tout comme nous utilisons des blocs de construction réutilisables pour créer des interfaces utilisateur.
Dans un proche avenir, nous comprendrons les modèles et les bonnes pratiques de modélisation de ces systèmes intelligents, et cette expérience nous permettra de comprendre quelles architectures peuvent mener à quels résultats.
En effet, grâce à ce travail et à cette expérience, il pourrait être possible d’apprendre à mieux aligner les AGI plus intelligents également.
UNE MEILLEURE INTÉGRATION DES DISCIPLINES ET DES PRATIQUES
Je m’attends à voir bientôt une fusion des connaissances issues de différentes disciplines dans ce domaine émergent.
La recherche sur les systèmes multi-agents et la façon de les utiliser pour résoudre des problèmes, ainsi que les idées de la psychologie, de la gestion d’entreprise et de la modélisation des processus, peuvent toutes être intégrées de manière bénéfique dans ce nouveau paradigme et dans les abstractions émergentes.
Nous devrons également réfléchir à la façon dont ces systèmes peuvent être le mieux interagis. Par exemple, des boucles de rétroaction humaines, ou du moins des points d’évaluation réguliers tout au long du processus, peuvent aider à obtenir de meilleurs résultats – vous pouvez le savoir personnellement en travaillant avec ChatGPT.
Cela représente un nouveau modèle UX jamais vu auparavant, où l’ordinateur devient plus comme un coéquipier ou un copilote qui fait le gros du travail de recherche de bas niveau, de formulation, de brainstorming, d’automatisation ou de tâches de raisonnement.
Johanna Appel est co-fondatrice de la société de conseil en intelligence artificielle Altura.ai GmbH, basée à Zurich, en Suisse.
Elle aide les entreprises à profiter de ces systèmes AGI miniatures en les intégrant dans leurs processus métier existants.
Références:
– Langchain GitHub Repository, https://github.com/hwchase17/langchain
– AutoGPT GitHub Repository, https://github.com/Significant-Gravitas/Auto-GPT
– BabyAGI GitHub Repository, https://github.com/yoheinakajima/babyagi
– “Eliezer Yudkowsky : Dangers of AI and the End of Human Civilization”, Lex Fridman Podcast #368, https://www.youtube.com/watch?v=AaTRHFaaPG8.