La regulación de los vehículos autónomos podría ser cada vez más restrictiva

A medida que progresa la evolución de los autos de conducción autónoma, también lo hace el tema de la regulación, como sucede en EE.UU.

Allí, a principios de este año, la Administración Nacional de Seguridad Vial (NHTSA, por sus siglas en inglés) había confirmado que el sistema de inteligencia artificial que conduce el automóvil de Google se podía considerar un conductor.

Por supuesto que esto no significaba que los autos de Google, ni los de otros fabricantes de automóviles que siguiesen los pasos de la empresa de tecnología, podían circular libremente por las calles, pero sí era un avance hacia la reglamentación de los vehículos de conducción autónoma, e incluso se esperaba que este mes hubiese algunas directivas más consolidadas sobre este tema.

Sin embargo, un accidente fatal ocurrido de un Modelo S en piloto automático de Tesla Motors, ha generado presión sobre los ejecutivos de la industria automotriz y los reguladores que apuestan a que la tecnología de conducción automática se despliegue de forma 100% segura. Y podría retrasar los avances que se están teniendo en regulación.

Este accidente tuvo lugar en mayo en una carretera de Florida, EE.UU., cuando un tractor con remolque ingresó a la autopista en forma perpendicular respecto al Model S, y el sistema AutoPilot de Tesla (en el que el conductor había puesto al vehículo) no fue capaz de detectar el lado blanco del tractor que se abalanzaba sobre él, no activando los frenos y por tanto generando un accidente de fatales consecuencias.

Los resultados de este suceso pusieron de relieve las dudas en torno a la capacidad o no que tendrán los coches de conducción automática en cuestiones particulares como el frenado de golpe o en la conducción en general.

La causa del accidente del Modelo S sigue siendo investigado por las autoridades federales y estatales de la Florida. Sin embargo, hay que tener en cuenta que no se trata de un sistema completo de conducción autónoma, sino que el Autopilot es una sumatoria de sistemas activos independientes de asistencia al conductor que incluye una base de datos con vías mapeadas para tal propósito, No es un verdadero sistema de conducción autónoma. E incluso la misma empresa reconoce que es una tecnología en pruebas y que debe ser usada solo como un asistente de manejo.

Los defensores de la automatización apuntan a una investigación que muestra que el 90% de los accidentes son causados por errores humanos, según un informe de Reuters. Pero también puede ocurrir que las máquinas cometan errores, o que se encuentren con situaciones que no están diseñados para manejar.

El viernes, la Administración Nacional de Seguridad Vial (NHTSA) de Estados Unidos dijo que las muertes de tráfico aumentaron en un 7,7%, a 35.200 en 2015 – la más alta cifra anual desde 2008 y el mayor salto en un solo año desde 1966. Las autoridades federales y ejecutivos de la industria dicen que este número podría reducirse por la tecnología, como los frenos que se acoplan automáticamente cuando los sensores detectan una colisión inminente.