


Le logiciel de conduite entièrement auto de Tesla est un gâchis. Devrait-il être légal?
Il reste à voir si cela est réalisable, mais une évaluation de Forbes de la dernière version de FSD a révélé qu'elle reste sujette aux erreurs. Au cours d'un essai de 90 minutes à Los Angeles, dans les quartiers résidentiels et les autoroutes, le modèle Y 2024 avec le dernier matériel et logiciel de Tesla (matériel 4, version FSD 13.2.9) a ignoré certains panneaux de trafic standard et limites de vitesse affichées; n'a pas ralenti par une traversée piétonne avec un signe clignotant et des personnes présentes; fait des changements de voie inutile et accéléré à des moments impairs, comme en sortant d'une autoroute bondée avec un feu rouge à la fin de la rampe. Rien n'indique également que la société a fixé un problème inquiétant identifié il y a deux ans: s'arrêter pour un panneau d'autobus scolaire clignotant indiquant que les enfants peuvent être sur le point de traverser une rue.
En fait, il y a tellement de problèmes faciles à trouver avec la fonctionnalité, récemment redoupbé «Drive complet (supervisé)», il soulève une question: pourquoi la fonctionnalité de 8 000 $, ou un abonnement de 99 $ par mois, même légal dans sa forme actuelle?
Il s'avère qu'il y a une réponse simple: «Les systèmes d'assistants de conduite ne sont pas réglementés, il n'y a donc aucune préoccupation concernant la légalité», a déclaré Missy Cummings, professeur de l'Université George Mason et expert en IA qui a conseillé la National Highway Traffic Safety Administration sur les véhicules autonomes. «La NHTSA a le pouvoir d'intervenir, mais jusqu'à présent, ils ne sont intervenus que pour une mauvaise surveillance des conducteurs.»
Route fermée et n'entrez pas de panneaux
Neuf ans après que le premier propriétaire de Tesla aux États-Unis a été tué dans un accident alors qu'il utilise le logiciel d'assistance conducteur automatique de l'entreprise - Joshua Brown en mai 2016 - les régulateurs américains n'ont pas encore établi de règles claires pour la technologie de pilote dite 2 de niveau 2 - la catégorie FSD entre en compte - au-delà de l'exigence de la surveillance du niveau 2 pour s'assurer que les conducteurs humains font attention aux conditions routières. Cette faille crée une opportunité pour Musk de promouvoir le FSD, d'abord déployé en 2020, en tant que fonctionnalité qui fournit une conduite pratiquement autonome avec une intervention humaine «minimale», selon l'écran en voiture. Et en tant que métrique pour son futur ensemble de compensation, son adoption plus large est massivement lucrative pour lui.
La NHTSA, qui a ouvert une enquête le mois dernier sur l'échec de Tesla à signaler les accidents du FSD et du pilote automatique en temps opportun, a déclaré qu'il "ne prévoit pas de nouvelles technologies ou systèmes de véhicules". Au lieu de cela, il appartient aux constructeurs automobiles de certifier que les véhicules et les technologies répondent aux normes de sécurité fédérales. Si une enquête trouve un système dangereux, «la NHTSA prendra les mesures nécessaires pour protéger la sécurité routière», a déclaré un porte-parole.
Les commentaires de Musk sur les capacités de FSD ne sont pas nuancés: "Tesla auto-conducteur améliore massivement votre qualité de vie et votre sécurité pour les milliers d'heures de vie que vous êtes dans une voiture." La société promeut également le système avec des vidéos montrant des performances apparemment impeccables dans les voyages en voiture. Pourtant, Tesla est plus circonspect dans ce qu'il dit à la NHTSA. "Tesla décrit ses systèmes comme une automatisation partielle de niveau 2 (y compris" FSD supervisé "), nécessitant un conducteur pleinement attentif qui est engagé dans la tâche de conduite à tout moment", a déclaré l'agence.
L'examen de la technologie de Tesla augmente après les revers légaux, notamment le lancement d'un recours collectif fédéral par les propriétaires de Tesla sur les revendications et les efforts exagérés du FSD et du pilote automatique exagéré de Musk du DMV de Californie pour interdire à la société d'utiliser ces noms pour les fonctionnalités de cet État. Le jury d'un procès fédéral en Floride a également déterminé le mois dernier que Tesla était partiellement responsable d'un krach mortel de 2019 qui s'est produit pendant que sa fonctionnalité automatique était engagée, lui ordonnant de payer 243 millions de dollars de dommages-intérêts. L'entreprise fait appel du verdict; Il a réglé deux autres poursuites la semaine dernière sur des accidents en Californie liés au pilote automatique, qui a des fonctionnalités d'assistance de conduite plus limitées que le FSD.
La société basée à Austin exploite également un projet pilote de robotaxi dans sa ville natale pour un nombre limité de propriétaires de Tesla qui sont facturés des frais nominaux pour l'utiliser. La version de FSD qu'il utilise a de légères modifications à la version offerte aux clients, bien qu'elle n'ait pas expliqué celles en détail. Depuis le lancement du service en juin, Tesla a rencontré un certain nombre de problèmes, notamment des rapports de trois accidents en une journée en juillet.
Contrairement à Waymo, qui exploite sa robotaxie en mode autonome complet dans plusieurs villes américaines, il y a actuellement un conducteur de sécurité sur le siège avant pour surveiller les performances de FSD.
«Il s'agit d'un produit de niveau alpha. Il ne devrait jamais être entre les mains du client. C'est juste un prototype. Ce n'est pas un produit.»
Il y a 59 décès provenant d'accidents impliquant l'utilisation du pilote automatique et du FSD, selon un décompte de course de Tesladeaths.com, compilé à partir de reportages.
Musk et Tesla n'ont pas répondu à une demande de commentaires sur les problèmes de sécurité de FSD, mais une version mise à jour du logiciel est attendue bientôt.
Signe piéton clignotant
Forbes a récemment fait une évaluation de 90 minutes du FSD le plus récent de Tesla, mis à jour le 28 août, dans un modèle Y en 2023 avec le dernier matériel de Tesla. Le véhicule appartenait à The Dawn Project, une organisation créée par le développeur de logiciels Dan O'Dowd, qui, ces dernières années, est devenue un critique vocal de la FSD, dépensant même son propre argent dans des publicités du Super Bowl pour sensibiliser à ses défauts.
Dans sa forme actuelle, «ce n'est même pas un système bêta. Il s'agit d'un produit de niveau alpha. Il ne devrait jamais être entre les mains du client», a déclaré O'Dowd à Forbes . «C'est juste un prototype. Ce n'est pas un produit.»
Le FSD, parfois, peut ressembler à un système de conduite autonome. Punch dans une adresse, et il décolle sans problème en mode de conduite mains libres. Il signale lors du tournant, s'arrête aux panneaux d'arrêt et aux feux de circulation, et est généralement attentif de son environnement, basé sur des images virtuelles affichées sur la console centrale. Pourtant, la fréquence des erreurs qui se produisent, même dans le trafic léger et dans des conditions météorologiques optimales, en particulier dans les rues urbaines, signifie qu'un humain derrière le volant doit être très attentif et prêt à prendre le contrôle. Et à cause de cela, si vous êtes un conducteur attentif, l'utiliser n'est pas plus simple ou plus relaxant que lorsqu'un humain conduit.
Il y a deux ans, le projet Dawn d'O'Dowd a effectué un test simple de FSD impliquant un bus scolaire stationné. À l'approche de la Tesla, un panneau d'arrêt éclairé sur le côté du bus s'est retourné, alertant les conducteurs pour s'arrêter pour permettre aux enfants de passer en toute sécurité. Dans le test d'origine, la Tesla n'a pas réussi à s'arrêter à chaque fois, ne ralentissant même pas lorsqu'un mannequin de taille enfant a croisé son chemin à l'avant du bus. Ce mois-ci, Forbes a reproduit le test Et la Tesla a de nouveau échoué; Cela ne s'est pas arrêté pour le panneau d'avertissement et il a encore coulé «Timmy», le mannequin du projet de l'aube.
Peu de temps après, nous avons répété le test avec un Waymo invoqué directement à partir de l'application. La voiture s'est arrêtée pour le panneau; Il n'a pas bougé jusqu'à ce qu'il soit rétracté, et il n'a pas coulé sur Timmy.
Panneau d'arrêt d'autobus scolaire et Timmy
"Nous avons signalé le truc du bus scolaire Tesla il y a plus de deux ans et ils n'ont rien fait", a déclaré O'Dowd. «Nous l'avons mis dans le New York Times dans une annonce pleine page. Ensuite, nous avons fait une publicité du Super Bowl le montrant.… Mais [Tesla] n'a rien fait à ce sujet.»
Et ce n'est pas seulement un clignotement des panneaux d'autobus scolaires. Le FSD ne semble pas non plus s'arrêter sur les voies ferrées lorsque la porte de traversée descend et que les lumières clignotent, selon certains propriétaires. Les rapports de pépins inquiétants ne sont pas rares. Un propriétaire a déclaré que son Tesla Model 3 avec la version 13.2.9 du FSD s'était soudainement arrêté à mi-chemin en exécutant un virage à gauche non protégé, avec un véhicule venant en sens inverse.
"J'ai cette voiture qui me porte sur environ 45 mph, et je suis arrêté, traînant à mi-chemin dans sa voie", selon un poste de Tesla Motors Club. «J'ai assez rapidement appuyé sur l'accélérateur pour remplacer le FSD lorsque j'ai eu ma prochaine surprise. La voiture s'est rapidement déplacée ... à l'envers!» Heureusement, cela a permis à la voiture d'éviter la voiture venant en sens inverse et il n'y avait personne derrière le propriétaire, qui a été secoué par l'expérience.
Dans son évaluation, le réviseur de l'auto et chercheur Edmunds trouve des améliorations dans les logiciels FSD, mais des problèmes «ennuyeux». "Il ne fera pas de légers ajustements dans la voie pour éviter les objets de la route, comme le roadkill, les débris de pneus sautés ou les nids de poule", a déclaré Edmunds. "Ce n'est pas génial, mais cela est aggravé parce que FSD n'aime pas non plus que vous preniez le contrôle pour apporter ces corrections. Tournez le volant un peu trop pour éviter un objet sur la route et tout le système s'éteint brusquement."
Edmunds ne recommande pas aux clients de payer 8 000 $ pour le FSD dans sa forme actuelle.
Les problèmes de FSD évitant les débris routiers étaient plus que ennuyeux pour deux influenceurs de Tesla essayant de terminer la promesse de Musk d'avoir un véhicule conduite de manière autonome à travers les États-Unis, réalisé en 2016. Environ 60 miles après avoir pris la voie de San Diego, leur nouveau modèle Y n'a pas réussi à éviter un grand objet métallique au milieu de leur voie d'autoroute, provoquant des dommages à la teneur en vide du véhicule, selon une vidéo publiée par l'une des influences.
Ni les rapports des consommateurs ni l'Institut d'assurance pour la sécurité routière, dont les évaluations ont une influence fortement influente sur l'industrie automobile et les régulateurs, a publié des évaluations détaillées du FSD, bien qu'un rédacteur en chef des consommateurs Reports ait déclaré sur un podcast récent que son expérience avec le FSD était raisonnablement bonne. Cependant, IIHS évalue les fonctionnalités d'alerte conductrice de Tesla pour que le FSD soit pauvre.
La NHTSA a le pouvoir d'émettre un avis de «vente d'arrêt» aux constructeurs automobiles en cas de problèmes de sécurité importants pour des modèles ou des fonctionnalités spécifiques. En 2016, il a envoyé une lettre de «commande spéciale» à Startup Comma.ai sur un produit après-vente que la société vendait pour automatiser partiellement la conduite pour certains modèles automobiles. Cela a conduit la virgule à arrêter les plans de vendre l'appareil à l'époque.
La NHTSA devrait faire quelque chose de similaire avec FSD, selon O'Dowd, bien qu'il ne soit pas clair si ce sera le cas. Pour l'instant, le projet Dawn fournit des évaluations de conduite comme celle réalisée pour Forbes pour les fonctionnaires, comme le procureur général de Californie Rob Bonta et le représentant américain Salud Carbajal, pour démontrer les lacunes de la fonctionnalité. Green Hills Software, son entreprise, est un fournisseur de longue date de logiciels au Département de la défense et aux fabricants d'avions, et finance le projet Dawn. Il a refusé de détailler son budget actuel, mais a déclaré qu'il était «substantiel».
"Une compagnie pharmaceutique n'appellerait pas quelque chose d'un cancer universel et complet alors qu'il n'a pas réellement guéri le cancer. Personne ne ferait cela. Vous seriez poursuivi dans le sol. Vous seriez jeté en prison et ils vous enlèveraient tout", a déclaré O'Dowd. "Mais [Musk] le fait tous les jours parce que personne au gouvernement ne prendra des mesures. Aucun régulateur ne prendra des mesures à ce stade. C'est en quelque sorte ce pour quoi nous sommes ici."
Mark Rosekind, ancien directeur de la sécurité du développeur de Robotaxi Zoox et de l'administrateur de la NHTSA en 2016, lorsque le premier accident mortel de la pilote automatique de Tesla a eu lieu, pense qu'une combinaison de nouvelles réglementations pour la technologie comme le FSD et la validation par des entités extérieures expertes est nécessaire.
"Si vous voulez vraiment la sécurité, la transparence et la confiance dans les opportunités de véhicules autonomes, vous devrez renforcer et améliorer les structures fédérales avec des approches vraiment innovantes", a-t-il déclaré à Forbes . Cela devrait inclure «des programmes neutres indépendants et complémentaires indépendants… certaines exigences qu'ils subissent pour démontrer la sécurité. Transparence qui renforcera la confiance».
Pour l'instant, le chercheur de véhicules autonomes Cummings voit un facteur qui peut minimiser les lacunes de la technologie de Tesla. "La seule bonne chose à propos de la mauvaise FSD que la plupart des gens comprennent que c'est terrible et le regarde de très près", a-t-elle déclaré.
Plus de Forbes
Les mensonges Tesla autonomes de Forbes Elon Musk Forbes Waymo est une opportunité de milliards de dollars. Google a juste besoin de le saisir. Par Le rêve robotaxi de Forbes Elon Musk pourrait être un cauchemar de responsabilité pour Tesla et ses propriétaires parCe qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Stock Market GPT
Recherche d'investissement basée sur l'IA pour des décisions plus intelligentes

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le projet, surnommé «FOMC in Silico», recrée numériquement une réunion du comité fédéral de marché ouvert - la branche décisionnelle de la Banque centrale américaine - en utilisant des agents de l'IA pour représenter les membres réels du conseil d'administration. L'équipe de recherche a nourri chaque agent de données sur INDI

Dans le même temps, les protocoles de stockage traditionnels sont remplacés par des technologies plus récentes qui répondent mieux aux besoins des charges de travail AI évolutives et hautes performances. Les solutions de stockage pour l'IA choisissent de plus en plus le stockage d'objets par rapport au stockage traditionnel en bloc et au stockage de fichiers. Ce changement est ironique car le stockage d'objets a été initialement développé en tant que plate-forme évolutive, durable et à faible coût, principalement pour les sauvegardes, les archives, le contenu des médias et les lacs de données à l'échelle du cloud. Cependant, contrairement aux systèmes traditionnels de stockage de fichiers et de blocs qui sont submergés par les demandes de traitement parallèle à grande échelle, le stockage d'objets fournit les capacités d'échelle et les performances requises par les applications d'IA. Fondée il y a plus de dix ans, Minio est un premier leader du marché du stockage d'objets. L'entreprise

Lit une introduction à la liste des nominés en constante expansion, avec des dépôts juridiques remplis de décisions en justice, des livres faux attribués à de vrais auteurs et un hôte Airbnb utilisant l'IA pour fabriquer des images suggérant un invité causé des dommages qu'ils

L'impact psychologique de cette transformation est profond. Pendant des années, la technologie d'assistance a été lourde, stigmatisante et rigide - pour les utilisateurs dans un moule à une taille unique. Mais l'IA réécrit cette histoire, offrant des solutions personnalisées t

Un véhicule Waymo sans aucun passagers voyageait le long de Rural Road près de l'Arizona State University à Tempe lorsqu'il a commencé à ralentir pour se transformer à droite en parking - se préparant vivement à ramasser son prochain cavalier. Waymo confirme le signal de virage

Fait intéressant, de nouvelles études révèlent que l'une des utilisations les plus courantes pour les chatbots d'IA aujourd'hui est un soutien émotionnel et en santé mentale. De nombreux utilisateurs trouvent plus facile de s'ouvrir sur des sujets profondément personnels qu'ils pourraient hésiter à discuter avec des amis, de la famille, O

Il reste à voir que cela soit réalisable, mais une évaluation de Forbes de la dernière version de FSD a révélé qu'elle reste sujette aux erreurs. Lors d'un essai routier de 90 minutes à Los Angeles, dans les quartiers résidentiels et les autoroutes, le modèle Y 2024 avec T

La société a annoncé une augmentation de 359% dans son arriéré de commande lors de l'appel de bénéfice du premier trimestre 2026, déclenchant une augmentation de 36% de sa valeur de l'action ce jour-là. Cette étape a propulsé Ellison - un propriétaire de plus de 40% des actions de la société - au sommet du Billiona de Forbes
