Financial Times

Cuidado con los vehículos
casi autónomos

Joshua Brown falleció en mayo, cuando su automóvil deportivo Tesla pasó por debajo de un tractor-remolque que invadió su carril en una carretera de Florida, trasquilando el techo del coche.
John Gapper El Financiero
06 julio 2016 20:11 Última actualización 07 julio 2016 5:0
FT. Cuidado con  los vehículos  casi autónomos.

La tecnología autónoma no evolucionará fácilmente de sirviente a patrón. (El Financiero)

Joshua Brown falleció en mayo, cuando su automóvil deportivo Tesla pasó por debajo de un tractor-remolque que invadió su carril en una carretera de Florida, trasquilando el techo del coche. Brown había activado la conducción automática del vehículo, y, trágicamente, ni él ni las cámaras o los sensores detectaron el remolque blanco iluminado por el sol.

Desde que Tesla reveló los detalles del fatal accidente la semana pasada, el accidente ha sido considerado como un revés para los vehículos autónomos.

Estrictamente hablando, no debería ser así. A pesar de que la compañía de automóviles eléctricos de Elon Musk denomina a la tecnología que estaba conduciendo su Modelo S como “piloto automático”, esto es engañoso. Se puede confiar en un piloto automático para conducir un vehículo por sí mismo; la versión de Tesla no puede hacerlo.

Brown, que había publicado vídeos de YouTube de sí mismo en su Tesla en piloto automático, se confió en la tecnología, mientras que la tecnología confió en el error humano. Pero el error de Brown fue inusual: actuó como si el coche fuera más inteligente de lo que era. Era capaz de ayudar a su conductor a dirigir y frenar, pero no de quedar totalmente al mando.

Eso es lo que hace que sea un incidente crucial en el camino hacia los automóviles totalmente autónomos, que puedan conducir a lo largo de carreteras y calles de la ciudad por sí mismos, evitando obstáculos y otros vehículos con láseres, sensores y cámaras. Indica que el progreso no será fácil y firme para que la tecnología evolucione de sirviente a patrón: se necesita un gran salto hacia adelante.

Esto es crucial, ya que los fabricantes de automóviles, proveedores y nuevos competidores como Google (y tal vez Apple) están a medio camino. Se enfrentan a preguntas críticas acerca de cuánto pueden confiar en los conductores para compartir los controles con la tecnología que es más avanzada que incluso hace dos años, pero que está lejos de ser plenamente capaz.

Tesla cree que se puede confiar en los conductores, y que sus resultados lo demuestran. La muerte de Brown fue la primera en las 130 millones de millas que los Tesla han conducido en piloto automático. Eso es mejor que el promedio de 2015 de una muerte por cada 89 millones de millas recorridas en EEUU. Tesla advierte a los propietarios que deben permanecer atentos con sus manos en el volante. Las pantallas del automóvil emiten sonidos y advertencias si los conductores desobedecen estas instrucciones.

No concuerdo con Tesla sobre cuánto se debe confiar en los conductores por dos razones. Una es que muchas personas ignoran sus advertencias: una exploración a través de YouTube muestra a muchos conductores de Tesla demostrando este hecho descaradamente. Quitan las manos del volante con entusiasmo mientras viajan a lo largo de autopistas, desviando los ojos del camino para proporcionar un comentario a la cámara.

En cierto modo, ninguna persona sensata podría confundir un Tesla con un coche autónomo. El piloto automático de Tesla puede mantenerlo a una distancia segura de otros en las carreteras, y puede conducir a lo largo de carreteras con las marcas de carril claras. Esto es lo que se clasifica oficialmente como la tecnología de nivel 2, muy por debajo del teórico vehículo autónomo nivel 5, que podría conducir incluso sin un piloto en el asiento.

La segunda razón es que casi nadie sabe exactamente lo que es un vehículo autónomo, y pocos pueden desgranar las diferencias entre los distintos niveles.

Para la mayoría de la gente, el accidente de Tesla suena como una fatalidad causada por un vehículo de autoconducción, que podría dañar su percepción del concepto total. Confiar demasiado en los conductores de vehículos de conducción asistida podría provocar la desconfianza del público en la autonomía en general.

Los vehículos también requieren potentes computadoras y sistemas de comunicación, con elementos de inteligencia artificial, para predecir cómo se comportarán los conductores humanos. Necesitan una serie de sensores y radares de manera que, si uno falla en detectar otro vehículo, como lo hizo el Tesla de Brown, haya un respaldo. Lograr todo esto es bastante concebible pero no se llevará a cabo de inmediato a escala.

Volvo piensa lanzar un programa piloto de 100 vehículos XC90 de autoconducción en una zona con asignación 3D alrededor de la ciudad sueca de Gotemburgo el próximo año, lo que permitirá a los conductores ignorar la carretera con seguridad.

BMW se ha asociado con el fabricante de chips Intel y con Mobileye, una compañía israelí que produce sensores, para hacer vehículos de autoconducción para el año 2021 que serían capaces de navegar por sí solos sin conductor en algunos lugares.

Mientras tanto, todas las empresas deben tener cuidado de no sobre-prometer lo que la tecnología puede hacer actualmente. Tesla ya les advierte a sus propietarios que no se dejen llevar por la tecnología. La advertencia debe ser más fuerte.

También te puede interesar:

Gobernador del Banxico enfrenta consecuencias del Brexit

Dilma lanza campaña contra su destitución

Después del Brexit, debemos seguir con nuestras vidas