El regulador de seguridad de EE.UU. escala su investigación sobre el FSD de Tesla: cámaras que no ven, alertas que llegan tarde y un peatón muerto

Publicado el

coche electrico

El sistema de conducción asistida más famoso del mundo tiene un problema con la niebla, la lluvia y cualquier cosa que oscurezca sus cámaras. Y el gobierno de EE.UU. ya no está dispuesto a esperar más respuestas de Tesla.

La NHTSA (Administración Nacional de Seguridad del Tráfico en las Carreteras), el principal regulador de seguridad automovilística estadounidense, acaba de elevar su investigación sobre el Full Self-Driving (Supervised) —el software de asistencia a la conducción de Tesla— al nivel de «análisis de ingeniería». En términos burocráticos, eso es el máximo escrutinio posible y, en la práctica, el paso previo habitual antes de ordenar una retirada masiva de vehículos.

La pregunta que debería hacerse cualquier propietario de un Tesla es sencilla: ¿cuánto tiempo lleva este problema sin resolverse?

¿Qué es el Full Self-Driving (Supervised) y por qué está bajo lupa?

El Full Self-Driving (Supervised), conocido como FSD, es el paquete de software premium de Tesla que permite al vehículo navegar de forma semiautónoma por calles urbanas, autopistas e intersecciones. El matiz «Supervised» —supervisado— es clave: el conductor debe mantener las manos en el volante y la atención en la carretera en todo momento, ya que el sistema no es una conducción autónoma completa, sino una asistencia avanzada que puede cometer errores.

Y los ha cometido. Graves.

La investigación que ahora se escala arrancó en octubre de 2024 después de cuatro accidentes reportados en condiciones de baja visibilidad —niebla, lluvia intensa, retroiluminación solar directa—. Uno de esos accidentes se saldó con la muerte de un peatón. Desde entonces, la Oficina de Investigación de Defectos (ODI) de la NHTSA ha estado intercambiando información con Tesla durante año y medio. Lo que han encontrado no tranquiliza.

Lo que dice el informe: alertas que llegan cuando ya es demasiado tarde

El documento oficial de la ODI es demoledor en su precisión técnica. Según el regulador, en los accidentes revisados el sistema FSD falló en dos cosas fundamentales:

Primero, no detectó condiciones comunes de la carretera que afectaban la visibilidad de las cámaras. Los coches de Tesla funcionan exclusivamente con visión artificial basada en cámaras —sin radar ni lidar, a diferencia de muchos competidores—, lo que los hace especialmente vulnerables cuando las lentes se ensuciaron, empañaron o quedaron cegadas por la luz.

Segundo, cuando el sistema sí detectó un problema, las alertas llegaron tan tarde que el conductor no tuvo tiempo físico de reaccionar. Imagina que el coche te avisa de que hay un obstáculo un segundo antes del impacto. El aviso existe. No sirve de nada.

Además, el FSD «perdió el rastro o nunca detectó un vehículo precedente en su trayectoria» en varios de estos incidentes. Para un sistema que supuestamente «ve» con ocho cámaras a la vez, eso es un fallo de base.

Tesla conocía el problema antes de que empezara la investigación

Aquí es donde la situación se complica para Tesla. La NHTSA revela que la compañía comenzó a desarrollar una actualización para corregir estos problemas de baja visibilidad en junio de 2024, cuatro meses antes de que se abriera la investigación formal. Es decir, Tesla identificó el fallo internamente antes de que el regulador llamara a su puerta.

El problema: a día de hoy, Tesla todavía no ha informado a la ODI de si esa corrección fue desplegada ni en qué vehículos se instaló. Para el regulador, esa falta de transparencia es inaceptable.

A esto se suma que la ODI sospecha que el número real de incidentes similares es significativamente mayor al documentado, debido a limitaciones en los sistemas de recopilación y etiquetado de datos que la propia Tesla les reportó. Dicho de otra forma: puede haber muchos más accidentes que simplemente no aparecen en los registros.

El contexto que lo hace más urgente: Tesla quiere lanzar un robotaxi

Esta investigación no ocurre en el vacío. Tesla lleva meses intentando poner en marcha un servicio de robotaxi en Austin, Texas, donde sus vehículos circularían sin conductor humano a bordo. Un plan que choca de frente con una investigación federal que dice, en esencia, que el software de conducción de Tesla tiene problemas para ver en condiciones meteorológicas adversas.

No es la única investigación abierta. La ODI también está analizando más de 80 casos en los que el FSD habría violado normas básicas de tráfico: saltarse semáforos en rojo, invadir carriles adyacentes. Dos investigaciones en paralelo que dibujan un patrón preocupante.

¿Qué puede pasar ahora?

El «análisis de ingeniería» es el nivel más alto de escrutinio de la ODI. Típicamente precede a una de dos resoluciones: el regulador concluye que no hay defecto suficiente para actuar, o exige a la empresa una campaña de recall —retirada y actualización de vehículos—. En el caso del FSD, un recall no significaría necesariamente aparcar los coches: podría traducirse en una actualización forzosa de software para los vehículos afectados.

Lo que está claro es que Tesla tendrá que dar respuestas concretas que hasta ahora ha evitado dar. Y que el margen para ambigüedades se acaba.

Sobre los primeros pasos de Tesla hacia la conducción autónoma en Europa, el camino siempre ha sido complejo. Lo sigue siendo.

Preguntas frecuentes sobre la investigación del FSD de Tesla

¿Qué es el análisis de ingeniería de la NHTSA? Es el nivel máximo de investigación de la Oficina de Investigación de Defectos de la NHTSA. Implica un escrutinio técnico profundo y suele ser el paso previo a ordenar una retirada o corrección obligatoria de vehículos.

¿Cuántos coches Tesla están potencialmente afectados? La investigación original abarcó los vehículos con FSD activo involucrados en los cuatro accidentes iniciales. Al escalar a análisis de ingeniería, el alcance podría ampliarse a toda la flota con FSD instalado en EE.UU.

¿El FSD de Tesla es una conducción totalmente autónoma? No. El nombre completo es «Full Self-Driving (Supervised)» y requiere que el conductor permanezca atento y con capacidad de intervención en todo momento. Tesla no ha recibido aprobación regulatoria para conducción autónoma de nivel 4 o 5 en ningún mercado.