La tecnología de piloto automático de Tesla se enfrenta a un nuevo escrutinio

Tesla enfrentó numerosas preguntas sobre su tecnología de piloto automático después de que un conductor de Florida murió en 2016 cuando el sistema de sensores y cámaras no pudo ver ni frenar para un tractor con remolque que cruzaba una carretera.

Ahora la compañía se enfrenta a más escrutinio que en los últimos cinco años por Autopilot, que Tesla y su director ejecutivo, Elon Musk, han sostenido durante mucho tiempo que hace que sus autos sean más seguros que otros vehículos. Los funcionarios federales están investigando una serie de accidentes recientes que involucran a Teslas que estaban usando Autopilot o podrían haberlo estado usando.

La Administración Nacional de Seguridad del Tráfico en las Carreteras confirmó la semana pasada que estaba investigando 23 choques de este tipo. En un accidente este mes, un Tesla Model Y chocó por detrás a un coche de policía que se había detenido en una carretera cerca de Lansing, Michigan. El conductor, que no resultó gravemente herido, había estado usando el piloto automático, dijo la policía.

En febrero, en Detroit, en circunstancias similares al accidente de Florida en 2016, un Tesla condujo debajo de un camión con remolque que cruzaba la calle, arrancando el techo del automóvil. El conductor y un pasajero resultaron gravemente heridos. Las autoridades no han dicho si el conductor había encendido el piloto automático.

La NHTSA también está investigando un accidente el 27 de febrero cerca de Houston en el que un Tesla chocó contra un vehículo policial detenido en una carretera. No está claro si el conductor estaba usando Autopilot. El automóvil no pareció disminuir antes del impacto, dijo la policía.

El piloto automático es un sistema computarizado que utiliza radares y cámaras para detectar las marcas de los carriles, otros vehículos y objetos en la carretera. Puede girar, frenar y acelerar automáticamente con poca intervención del conductor. Tesla ha dicho que debería usarse solo en carreteras divididas, pero los videos en las redes sociales muestran a los conductores usando el piloto automático en varios tipos de carreteras.

“Necesitamos ver los resultados de las investigaciones primero, pero estos incidentes son los ejemplos más recientes que muestran que estas características avanzadas de control de crucero que tiene Tesla no son muy buenas para detectar y luego detenerse por un vehículo que se detiene en una carretera”, dijo Jason Levine, director ejecutivo del Center for Auto Safety, un grupo creado en la década de 1970 por Consumers Union y Ralph Nader.

Lea también:  ¿Qué vacuna COVID es la "mejor"? ¿Por qué algunas personas tienen efectos secundarios? Los expertos responden estas preguntas y más

Este nuevo escrutinio llega en un momento crítico para Tesla. Después de alcanzar un máximo histórico este año, el precio de sus acciones ha caído un 20 por ciento en medio de señales de que los autos eléctricos de la compañía están perdiendo participación de mercado frente a los fabricantes de automóviles tradicionales. El Mustang Mach E de Ford Motor y el Volkswagen ID.4 llegaron recientemente a las salas de exhibición y se consideran serios desafíos para el Modelo Y.

El resultado de las investigaciones actuales es importante no solo para Tesla, sino también para otras empresas de tecnología y automóviles que están trabajando en vehículos autónomos. Si bien Musk ha sugerido con frecuencia que el uso generalizado de estos vehículos está cerca, Ford, General Motors y Waymo, una división de la empresa matriz de Google, Alphabet, han dicho que ese momento podría tardar años o incluso décadas.

Bryant Walker Smith, profesor de la Universidad de Carolina del Sur que ha asesorado al gobierno federal sobre la conducción automatizada, dijo que era importante desarrollar tecnologías avanzadas para reducir las muertes por accidentes de tránsito, que ahora suman alrededor de 40,000 al año. Pero dijo que le preocupaba el piloto automático y cómo el nombre y el marketing de Tesla implican que los conductores pueden desviar su atención de la carretera de manera segura.

“Existe una desconexión increíble entre lo que la empresa y su fundador dicen y dejan que la gente crea, y lo que su sistema es realmente capaz de hacer”, dijo.

Tesla, que disolvió su departamento de relaciones públicas y generalmente no responde a las consultas de los reporteros, no devolvió llamadas telefónicas ni correos electrónicos en busca de comentarios. Y Musk no respondió a las preguntas que le enviaron en Twitter.

La compañía no ha abordado públicamente los recientes accidentes. Si bien puede determinar si el piloto automático estaba encendido en el momento de los accidentes porque sus automóviles envían datos constantemente a la empresa, no ha dicho si el sistema estaba en uso.

La compañía ha argumentado que sus autos son muy seguros, afirmando que sus propios datos muestran que los Teslas tienen menos accidentes por milla conducida e incluso menos cuando el piloto automático está en uso. También ha dicho que les dice a los conductores que deben prestar mucha atención a la carretera cuando usan el piloto automático y que siempre deben estar listos para retomar el control de sus autos.

Lea también:  Con la nueva tienda de Windows 11, Microsoft quiere hacer quedar mal a Apple

Una investigación federal del accidente fatal de 2016 en Florida encontró que Autopilot no había reconocido un semirremolque blanco contra un cielo brillante, y que el conductor podía usarlo cuando no estaba en una carretera. El piloto automático continuó operando el automóvil a 74 millas por hora incluso cuando el conductor, Joshua Brown, ignoró varias advertencias para mantener las manos en el volante.

Un segundo incidente fatal tuvo lugar en Florida en 2019 en circunstancias similares: un Tesla se estrelló contra un camión con remolque cuando el piloto automático estaba activado. Los investigadores determinaron que el conductor no tenía las manos en el volante antes del impacto.

Si bien la NHTSA no ha obligado a Tesla a retirar el piloto automático, la Junta Nacional de Seguridad en el Transporte concluyó que el sistema “jugó un papel importante” en el accidente de Florida de 2016. También dijo que la tecnología carecía de salvaguardias para evitar que los conductores quitaran las manos del volante o apartaran la vista de la carretera. La junta de seguridad llegó a conclusiones similares cuando investigó un accidente de 2018 en California.

En comparación, un sistema similar de GM, Super Cruise, monitorea los ojos del conductor y se apaga si la persona mira hacia otro lado durante más de unos segundos. Ese sistema solo se puede usar en las carreteras principales.

En una carta del 1 de febrero, el presidente de la Junta Nacional de Seguridad en el Transporte, Robert Sumwalt, criticó a la NHTSA por no hacer más para evaluar el piloto automático y exigir que Tesla agregue salvaguardas que eviten que los conductores hagan un mal uso del sistema.

La nueva administración en Washington podría adoptar una línea más firme en materia de seguridad. La administración Trump no buscó imponer muchas regulaciones a los vehículos autónomos y buscó flexibilizar otras reglas que no le gustaban a la industria automotriz, incluidas las normas de ahorro de combustible. Por el contrario, el presidente Biden nombró a un administrador interino de la NHTSA, Steven Cliff, quien trabajó en la Junta de Recursos del Aire de California, que frecuentemente chocaba con la administración Trump sobre las regulaciones.

Lea también:  COVID llevó a las instituciones de salud global a sus límites

Las preocupaciones sobre el piloto automático podrían disuadir a algunos compradores de automóviles de pagar a Tesla por una versión más avanzada, Full Self-Driving, que la compañía vende por $ 10,000. Muchos clientes lo han pagado con la expectativa de poder utilizarlo en el futuro; Tesla hizo operativa la opción en unos 2.000 automóviles en una versión “beta” o de prueba a partir de fines del año pasado, y Musk dijo recientemente que la compañía pronto ponerlo a disposición de más coches. Se supone que la conducción autónoma completa puede operar automóviles Tesla en ciudades y carreteras locales donde las condiciones de conducción se vuelven más complejas debido al tráfico que se aproxima, las intersecciones, los semáforos, los peatones y los ciclistas.

A pesar de sus nombres, Autopilot y Full Self-Driving tienen grandes limitaciones. Su software y sensores no pueden controlar los automóviles en muchas situaciones, por lo que los conductores deben mantener la vista en la carretera y las manos en el volante o cerca de él.

En una carta de noviembre al Departamento de Vehículos Motorizados de California que se hizo pública recientemente, un abogado de Tesla reconoció que la conducción autónoma total tuvo problemas para reaccionar ante una amplia gama de situaciones de conducción y no debería considerarse un sistema de conducción totalmente autónomo.

El sistema no es “capaz de reconocer o responder” a ciertas “circunstancias y eventos”, escribió Eric C. Williams, consejero general asociado de Tesla. “Estos incluyen objetos estáticos y escombros de la carretera, vehículos de emergencia, zonas de construcción, grandes intersecciones no controladas con múltiples vías de entrada, oclusiones, clima adverso, vehículos complicados o adversarios en las rutas de manejo, carreteras sin mapear”.

Levine, del Center for Auto Safety, se ha quejado ante los reguladores federales de que los nombres Autopilot y Full Self-Driving son, en el mejor de los casos, engañosos y podrían alentar a algunos conductores a ser imprudentes.

“El piloto automático sugiere que el automóvil puede conducirse solo y, lo que es más importante, detenerse solo”, dijo. “Y se duplicaron con la conducción totalmente autónoma, y ​​nuevamente eso lleva a los consumidores a creer que el vehículo es capaz de hacer cosas que no es capaz de hacer”.

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.