in

Sam Altman : la taille des LLM n’aura plus autant d’importance à l’avenir.

[ad_1]
# SAM ALTMAN : TAILLE DES GRANDS MODÈLES DE LANGUE (LLMS) EXCEPTIONNELS NE SERA PAS ESSENTIELLE À L’AVENIR

Dans une interview accordée à l’Imagination in Action event chez MIT, Sam Altman, co-fondateur et CEO d’OpenAI, a partagé sa vision quant à la taille des grands modèles de langue (LLMs) exceptionnels. À la suite de la sortie de GPT-4 (l’un des modèles basés sur les LLMs les plus sophistiqués créés jusqu’à présent) et de ChatGPT, le dernier projet d’OpenAI, tout le monde est à l’affut des déclarations d’Altman quant au futur des LLMs. Il avance que la taille des modèles de langues est une fausse mesure de qualité du modèle et compare cette tendance à la course de vitesse des puces qu’on a pu observer dans les années 2000. Selon Altman, toute la focus doit être sur l’augmentation des capacités et des usages en mettant l’accent sur les modèles les plus utiles et les plus sûrs.

## LA TAILLE NE FAIT PAS TOUT

Altman est conscient que parfois, les chiffres ont plus d’impact que la réalité, notamment lorsqu’on utilise la taille d’un modèle de langage pour mesurer sa qualité. Cela peut rappeler la course incessante aux gigahertz dans l’histoire des puces informatiques jusqu’à ce que les entreprises optent pour des processeurs plus performants. Altman considère qu’on atteint maintenant les limites de la taille des LLMs et estime que la clé du futur des modèles de langage se trouve dans la capacité et la sécurité qu’ils offrent.

## LA LENTEUR EST GAGE DE QUALITÉ

“Un grand secret de notre réussite à OpenAI est d’avoir travaillé dur, patiemment, sur chaque détail pendant longtemps. Et, la plupart des gens ne sont simplement pas disposés à le faire” déclare Altman. Depuis sept ans OpenAI travaille sur des projets avec un soin extrême et une méticulosité pointue du détail, sans pour autant précipiter leur sortie. La patience et l’attention aux détails sont les clés de la réussite chez OpenAI.

## UNE APPROCHE SOIGNEUSE DE LA SÉCURITÉ

Altman a également évoqué dans l’interview la lettre qui demandait entre autres à OpenAI de suspendre son activité pendant six mois. Il a défendu la prochaine étape d’OpenAI, GPT-4, en faisant remarquer que la transition avait été pensée et développée pendant une période de validation et de détection des problèmes potentiels, d’audits internes et externes, de red team testing, tout en assurant la sécurité du modèle. La sécurité est une préoccupation majeure pour la société. Altman est ouvert quant à ses inquiétudes et ses limites quant à la sécurité actuelle de ses projets et se tient disponible à tout dialogue constructif sur ce sujet.

Pour Altman, la sécurité ne doit pas entrer en conflit avec les avancées technologiques mais doit plutôt les accompagner pour former une approche globale axée sur la qualité et la sécurité.

Sources :
– https://techcrunch.com/2023/03/14/openai-releases-gpt-4-ai-that-it-claims-is-state-of-the-art/
– https://www.imaginationinaction.co/
– https://techcrunch.com/2023/03/28/1100-notable-signatories-just-signed-an-open-letter-asking-all-ai-labs-to-immediately-pause-for-at-least-6-months/

[ad_2]

What do you think?

Written by Barbara

Leave a Reply

Your email address will not be published. Required fields are marked *

Le quatrième Echo d’Amazon est actuellement vendu au prix le plus bas depuis les fêtes de fin d’année.

Netflix annule la partie “en direct” de son Love is Blind spécial de retrouvailles.