Home » La investigación federal sobre los accidentes del piloto automático de Tesla encuentra la causa del “mal uso”

La investigación federal sobre los accidentes del piloto automático de Tesla encuentra la causa del “mal uso”

by admin
La investigación federal sobre los accidentes del piloto automático de Tesla encuentra la causa del “mal uso”

La Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) ha cerrado investigación con respecto al sistema de asistencia al conductor Full Self-Driving (FSD) de Tesla, después de haber revisado cientos de accidentes, incluidas 13 muertes, relacionados con su “mal uso”. Al mismo tiempo, la NHTSA está iniciando una nueva investigación para evaluar qué tan efectivas fueron las modificaciones del piloto automático realizadas por Tesla durante la campaña de retirada de diciembre.

Fuente de la imagen: Tesla

El cierre de la investigación original, que comenzó en 2021, marca el final de uno de los esfuerzos más visibles del gobierno para examinar el software Autopilot de Tesla. Hoy, la Oficina de Investigación de Defectos de la NHTSA informó que ha completado “una gran cantidad de trabajo” que lleva a la conclusión de que “El débil sistema de interacción con el conductor de Tesla no cumple con las capacidades operativas aceptables del Autopilot”.

“Esta discrepancia ha creado una brecha de seguridad crítica entre las expectativas de los conductores sobre las capacidades de desempeño [автопилота] y las verdaderas capacidades del sistema, — escribe la agencia en su informe. — Esta brecha condujo a un mal uso predecible y a fallas evitables”.

La NHTSA dijo que la investigación analizó 956 accidentes reportados hasta el 30 de agosto de 2023. En aproximadamente la mitad (489) de ellos, la agencia no identificó el piloto automático como culpable o no tenía datos suficientes para realizar una evaluación.

Los 467 accidentes restantes se dividieron condicionalmente en tres grupos. En los 211 accidentes más graves “El avión frontal del Tesla chocó con otro vehículo u obstáculo y el conductor atento tuvo tiempo suficiente para reaccionar para evitar o mitigar la colisión.” 145 accidentes estuvieron relacionados con “conducir fuera de la carretera en condiciones de baja tracción, por ejemplo, en una carretera mojada”. 111 accidentes ocurrieron al ingresar a la vía cuando “El sistema de dirección automática se desactivó accidentalmente por la acción del conductor”.

La Agencia cree que las graves consecuencias de los accidentes a menudo resultan de “Ni el sistema ni el conductor responden adecuadamente, lo que provoca fluctuaciones de velocidad y consecuencias energéticas elevadas”.

  Fuente de la imagen: Fuente de la imagen: KTVU-TV/AP

Fuente de la imagen: KTVU-TV/AP

Tesla exige que los conductores controlen las condiciones del tráfico y mantengan las manos en el volante cuando utilizan el piloto automático, que se controla mediante un sensor de par y, en los coches nuevos, cámaras en la cabina. Pero la NHTSA y otros grupos de seguridad creen que estas medidas “no es suficiente para prevenir abusos”. Tesla acordó actualizar su software para mejorar el seguimiento de la actividad del conductor. Pero esta actualización no parece haber cambiado mucho el piloto automático: según la NHTSA, algunas partes de esta actualización de software requieren el consentimiento del propietario, mientras que Tesla permite que el conductor “fácil de cancelar” algunas medidas de seguridad.

  Fuente de la imagen: TheVerge

Fuente de la imagen: TheVerge

La agencia encontró enormes lagunas en los datos telemáticos recopilados por Tesla, lo que generó incertidumbre sobre la tasa real de accidentes. Según la agencia, Tesla sólo recibe datos cuando se despliegan los airbags, los pretensores de los cinturones de seguridad o la función de mitigación de peatones en el capó del coche. La NHTSA cree que de todos los accidentes reportados a la policía, Tesla sólo tiene conocimiento de alrededor del 18 por ciento.

El Departamento de Justicia de EE. UU. está llevando a cabo su propia investigación sobre Tesla, y el Departamento de Vehículos Motorizados de California acusó a la compañía de publicitar falsamente las capacidades del piloto automático y exigió pruebas en profundidad del software FSD. La empresa también enfrentó numerosas demandas respecto al piloto automático. Sin embargo, Tesla no cambia de rumbo y lucha por alcanzar la plena autonomía en sus vehículos.

Si nota un error, selecciónelo con el mouse y presione CTRL+ENTER.

2024-04-26 19:47:00
#investigación #federal #sobre #los #accidentes #del #piloto #automático #Tesla #encuentra #causa #del #mal #uso,

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy