in

La nouvelle fonctionnalité de sécurité de GitLab utilise l’IA pour expliquer les vulnérabilités aux développeurs.


GITLAB ANNONCE UNE NOUVELLE FONCTIONNALITÉ DE SÉCURITÉ BASÉE SUR L’IA

La plateforme de développement GitLab a annoncé aujourd’hui une nouvelle fonctionnalité de sécurité basée sur l’IA qui utilise un grand modèle linguistique pour expliquer aux développeurs les vulnérabilités potentielles, avec des plans pour étendre cela à la résolution automatique de ces vulnérabilités en utilisant l’IA dans le futur. Cette nouvelle fonctionnalité “expliquer cette vulnérabilité” aidera les équipes à trouver la meilleure façon de résoudre une vulnérabilité dans le contexte de la base de code. GitLab a également souligné que toutes ses fonctionnalités d’IA sont construites avec la vie privée en tête. La nouvelle fonctionnalité est en accord avec l’objectif global de GitLab pour son initiative d’IA qui est d’assurer une efficacité 10 fois plus grande à tous les niveaux de développement.

AIDES AU DÉVELOPPEMENT BASÉES SUR L’IA

Plus tôt ce mois-ci, l’entreprise a également annoncé un nouvel outil expérimental qui explique le code à un développeur, ainsi qu’une nouvelle fonctionnalité expérimentale qui résume automatiquement les commentaires en cas de problèmes. Le code suggestions solution est déjà lancée depuis l’année dernière et est disponible pour les utilisateurs GitLab Ultimate et Premium. Le contexte ici fait toute la différence, car l’outil peut combiner les informations de base sur la vulnérabilité avec des réflexions spécifiques de la base de code de l’utilisateur. Cette solution devrait aider à remédier plus facilement et rapidement à ces problèmes.

L’objectif global de GitLab pour son initiative d’IA est d’assurer une efficacité 10 fois plus grande à tous les niveaux de développement. Si la productivité d’un développeur peut être multipliée par 100, les inefficacités en aval dans l’examen de ce code et sa mise en production peuvent facilement annuler tout gain. Même si l’objectif est de rendre le développement 50% plus efficace, ce ne sera pas suffisant si les équipes de sécurité, d’exploitation et de conformité ne le sont pas également.

EN UTILISANT L’IA/ML POUR LA VÉRIFICATION DU CODE

Selon le rapport récent de GitLab sur DevSecOps, 65% des développeurs utilisent déjà l’IA/ML dans leurs efforts de test ou prévoient de le faire dans les trois prochaines années. 36% des équipes utilisent déjà un outil d’IA/ML pour vérifier leur code avant que les examinateurs de code ne le voient. Les fonctionnalités AI de GitLab visent à aider les équipes à générer automatiquement des tests unitaires et des évaluations de sécurité, qui seraient ensuite intégrés dans la plateforme GitLab.

Pour GitLab, sa philosophie globale derrière l’ajout de fonctionnalités AI est “un itinéraire à grande vitesse avec des rails de sécurité”, qui est la combinaison de codes AI et de génération de test soutenue par la plateforme complète de DevSecOps de l’entreprise. Son objectif est de faciliter la vie des équipes DevSecOps en automatisant une partie de leur travail et en transformant l’IA/ML en une ressource stratégique pour les équipes face aux contraintes de leurs ressources.

Sources :

– Article publié par Frederic Lardinois dans TechCrunch https://techcrunch.com/2021/09/22/gitlabs-new-security-feature-uses-ai-to-explain-vulnerabilities-to-developers/
– Rapport DevSecOps de GitLab https://about.gitlab.com/learn/modern-devops/devsecops-report-2021/

What do you think?

Written by Barbara

Leave a Reply

Your email address will not be published. Required fields are marked *

“Je suis fatigué”

Ma liste de lecture (béta) – Écoutez vos articles préférés