La vidéo contrevient aux règles de YouTube qui interdit les contenus qui portent atteinte au bien-être émotionnel et physique des mineurs.
YouTube a supprimé une vidéo de Tesla au motif qu’elle met en scène des enfants dans une situation considérée comme dangereuse pour leur intégrité physique et émotionnelle, rapporte le média américain CNBC.
La séquence incriminée, publiée à l’origine sur la chaîne YouTube Whole Mars Catalog’s, visait à démontrer la fiabialité du Full Self-Driving (FSD), un système de conduite autonome, et sa capacité à immobiliser un véhicule Tesla lorsqu’un enfant se trouve sur sa trajectoire. Dans la vidéo, Tad Park, propriétaire d’une Tesla et investisseur dans la marque fondée par Elon Musk, mène l’expérience avec ses propres enfants.
Violation des règles concernant la sécurité des mineurs
Dans la première situation, l’un d’eux se tient au milieu d’une route et Tad Park, au volant d’une Tesla Model 3, conduit dans sa direction. L’investisseur réitère l’expérience: cette fois, l’enfant est train de traverser la rue. Dans les deux cas, le véhicule détecte sa présence et s’immobilise à distance raisonnable.
Or, comme indiqué sur sa page d’assistance, YouTube met en place des règles spécifiques à l’égard des contenus qui impliquent les plus jeunes. Les vidéos qui “mettent en danger le bien-être émotionnel et physique des mineurs”, y compris “les cascades dangereuses, les défis ou les farces” sont interdites.
Une assertion entérinée par Ivy Choi, porte-parole de YouTube. Selon elle, la vidéo mise en ligne par Whole Mars Catalog’s a violé les politiques de la plateforme contre les contenus nuisibles et dangereux à l’égard des mineurs.
YouTube n’autorise pas les contenus qui montrent un mineur participant à des activités dangereuses ou qui les encouragent à pratiquer des activités dangereuses, a-t-elle souligné dans une interview accordée au site spécialisé The Verge, justifiant la suppression de la vidéo.
“Je lui confierais la vie de mes enfants”
“J’ai déjà essayé la version beta du Full Self-Driving. Je lui confierais la vie de mes enfants”, a, pour sa part, réagi Tad Park. “Je suis confiant dans le fait qu’il va les détecter. J’avais également le contrôle du volant donc je pouvais freiner à tout moment”, a-t-il justifié.
Par ailleurs, Tad Park a précisé à CNBC que la voiture ne roulait jamais à plus de huit miles à l’heure (12 kilomètres à l’heure) et qu’il s’était assuré qu’elle reconnaissait l’enfant. Supprimée de YouTube, la vidéo est toujours disponible sur Twitter, qui n’a pas réagi à ce sujet.
En réponse à cette séquence controversée, la National Highway Traffic Safety Administration (NHTSA) a publié une déclaration qui met en garde contre les expérimentations des technologies de conduite automatisée. “Personne ne devrait risquer sa vie, ou la vie de quelqu’un d’autre, pour tester les performances d’une technologie automobile”, a déclaré l’agence à Bloomberg.
FSD: une technologie encore perfectible ?
Le logiciel FSD de Tesla ne rend pas un véhicule totalement autonome. Il est disponible aux Etats-Unis moyennant un supplément de 12 000 dollars ou un abonnement de 199 dollars par mois (199 euros). Pour accéder à la version bêta du FSD, un conducteur doit atteindre un certain score de sécurité déterminé par Tesla.
Cete option permet au conducteur d’entrer une destination à laquelle se rend le véhicule en utilisant Autopilot (“Pilotage automatique” en français), le système avancé d’aide à la conduite (ADAS). Cependant, le conducteur doit toujours garder les mains sur le volant et être prêt à reprendre le contrôle à tout moment.
Cette technologie suscite des craintes. Début août, le Département des véhicules à moteur de Californie a accusé Tesla de fausses déclarations au sujet des systèmes Autopilot et FSD. Selon l’agence, les noms des deux fonctions et la description qu’en fait Tesla laissent entendre, à tort, qu’elles permettent aux véhicules de fonctionner de manière totalement autonome.
En juin, la NHTSA, agence fédérale américaine de la sécurité routière, a publié pour la première fois des données relatives aux accidents de véhicules dotés d’assistance au conducteur. L’organisme américain a constaté que les véhicules Tesla qui utilisent Autopilot ont été impliqués dans 273 accidents entre le 20 juillet 2021 et le 21 mai 2022.