Anuncio

Una agencia ocultó los datos de un accidente de Tesla durante casi dos años. ¿Es esa una forma de generar confianza en los autos autónomos?

Share

Fue un extraordinario voto de confianza para la conducción autónoma por parte de la agencia de seguridad de vehículos más importante del país. Hace dos años, la Administración Nacional de Seguridad del Tráfico en las Carreteras anunció que las tasas de accidentes de los automóviles Tesla disminuyeron en casi un 40% después de la instalación de una tecnología de asistencia al conductor llamada Autosteer.

“Cuarenta por ciento. Eso era para abrir los ojos”, dijo R.A. Whitfield, director de Sistemas de Control de Calidad y experto en estadísticas. Tan “impresionante y notable”, añadió, que no lo creía del todo. “Las afirmaciones extraordinarias deben estar respaldadas por evidencia extraordinaria”.

Pero cuando Whitfield solicitó los datos de respaldo, se encontró con un grueso muro burocrático en la NHTSA, la agencia financiada por los contribuyentes y principal responsable de la seguridad de los vehículos en los Estados Unidos.

Anuncio

El 27 de noviembre de 2018, después de una demanda federal y casi dos años, la NHTSA finalmente publicó los datos. Whitfield se sorprendió. En un informe detallado de 25 páginas publicado el 8 de febrero, dijo que el estudio de la NHTSA violaba los principios básicos de la metodología de investigación estándar hasta el punto de que ninguna conclusión de ningún tipo podría justificarse.

Whitfield, cuya empresa de 32 años con sede en Maryland, Quality Control Systems, ayuda a las empresas a reducir el riesgo mediante el análisis basado en datos y estadísticas, dijo que la opinión de la agencia sobre la seguridad de Tesla “no estaba bien fundada”. En los círculos científicos, eso significa una tontería .

La agencia no cuestionó las afirmaciones de Whitfield, pero dijo que estaba “revisando el informe publicado por Quality Control Systems Corp. con interés y proporcionará comentarios según corresponda”.

El episodio plantea preguntas que van mucho más allá de si el piloto automático de Tesla es seguro. Llama la atención sobre la recopilación y la transparencia de los datos que serán cruciales para la elaboración de leyes y reglamentos que rijan el uso de vehículos que, en su totalidad o en parte, pueden manejarse por sí mismos, y en qué medida las empresas de tecnología sin conductor pueden ganarse la confianza del público.

“La lección aquí es una necesidad de sinceridad”, dijo Bryant Walker Smith, un experto legal en vehículos sin conductor en la Universidad de Carolina del Sur. “¿Qué significa ser confiable en este campo?”

Smith dijo que las compañías, las agencias reguladoras y los políticos deben comunicarse con claridad. “Esto es lo que estamos haciendo, es por esto que creemos que es seguro y por eso usted debe creernos”.

La tecnología detrás de los coches sin conductor ha avanzado rápidamente. En diciembre, Waymo, la división sin conductor de la compañía Alphabet de Google, comenzó a ofrecer un servicio de taxi comercial con un robot en Phoenix.

Cruise Automation, propiedad de General Motors, está desarrollando un servicio de taxi sin conductor para San Francisco. Uber, después de abandonar virtualmente su programa sin conductor, ha reanudado la investigación y el desarrollo. Con cientos de miles de millones en juego en una incipiente industria automovilística sin conductor, todas las compañías automotrices y tecnológicas más importantes tienen un aspecto destacado en el ramo.

Pero el campo no avanzará rápidamente hasta que la ley se ponga al día. Actualmente, el gobierno federal apenas regula los vehículos sin conductor. Eso se ha dejado a los estados, que están creando un mosaico de leyes, sin coherencia nacional.

El Congreso intentó aprobar la legislación federal sin conductor el año pasado, pero un proyecto de ley clave fracasó en el Senado.

“Creo que fracasaron en parte debido a la falta de confianza”, señaló Smith. Encuestas recientes muestran que los estadounidenses desconfían de la seguridad de los automóviles sin conductor; más de la mitad (52%) de los encuestados por Gallup en la primavera pasada dijeron que nunca quisieran usar un auto autónomo.

La falta de transparencia de la empresa y del gobierno solo afectará, según Smith. “Cuando se desconfíe de la tecnología, las compañías que la desarrollan y la agencia que regula esas tecnologías, el gobierno estará mucho menos dispuesto” a respaldar los autos sin conductor .

El tema de la transparencia de los datos de seguridad ganó una amplia atención en marzo de 2018, después de que un automóvil Uber autónomo, con un conductor de prueba aparentemente distraído al volante, mató a una mujer que caminaba con su bicicleta por una autopista de Arizona.

La mayoría de los investigadores y el público en general tienen poca información disponible para comprender lo que sucedió en ese accidente. La reacción de Uber fue pedir disculpas, pagar a la familia de la víctima un acuerdo legal y evitar un juicio público. La Junta Nacional de Seguridad en el Transporte, o NTSB, publicó un informe preliminar en mayo pasado que señalaba que los frenos automáticos del automóvil Volvo estaban apagados y que la mujer llevaba ropa oscura y era difícil de ver. Pero se revelaron pocos datos subyacentes sobre el sistema sin conductor de Uber.

Algunos estados requieren una divulgación de datos limitada, pero su utilidad para los estudios de seguridad también puede ser limitada. Por ejemplo, California requiere que las empresas que prueban automóviles sin conductor en carreteras públicas proporcionen informes anuales de “desconexión” al público, un recuento de la cantidad de veces que un sistema de robot tuvo que entregar el control al conductor de prueba humano, con una breve explicación de por qué. El Departamento de Vehículos Motorizados de California emitió los números del 2018 el 13 de febrero de 2019.

Pero los números, por sí mismos, no revelan mucho. Un gran número de desconexiones puede significar que una empresa está presionando los límites de su sistema y está progresando rápidamente, o que el sistema no funciona bien en absoluto.

La última controversia reaparece en el infame accidente de Tesla en mayo de 2016, cuando el piloto automático de Tesla, el llamado sistema de nivel 2 que legalmente requiere atención humana constante, condujo un automóvil que se impactó debajo de un camión que cruzaba la carretera, decapitando al conductor. NHTSA investigó el accidente. El conductor no prestó atención, concluyó la agencia en un informe de enero de 2017, y la tecnología del piloto automático no fue la culpable, a pesar de que el sistema no pudo distinguir la diferencia entre el lado plateado del camión con remolque y el cielo cubierto.

Ese informe de la NHTSA incluyó el análisis de seguridad del Autosteer. Utilizando los registros propios de Tesla, recopilados a través de su sistema de actualización de software por aire, la agencia analizó el kilometraje conducido en los automóviles antes y después de la instalación de Autosteer. (Autosteer es el subsistema en Piloto automático que puede dirigir automáticamente el automóvil a otros carriles, pasar a otros automóviles y girar hacia rampas de salida).

Al usar implementaciones de bolsas de aire como un proxy para los choques, la NHTSA concluyó que los autos de Tesla estuvieron involucrados en un 40% menos de choques después de que se instaló un Autosteer. Si ese resultado se aplicara a los automóviles en general, se podrían prevenir miles de muertes.

Justo después del informe, el presidente ejecutivo de Tesla, Elon Musk, tuiteó que “los datos muestran que la tasa de accidentes del vehículo en Tesla se redujo en casi un 40% después de la instalación del Autosteer”.

La compañía utilizó el hallazgo para respaldar su afirmación de que Autopilot hizo que los automóviles fueran más seguros. En marzo de 2018, después de que un conductor de Tesla fue asesinado cuando el Autopilot condujo el automóvil hacia una barrera de concreto, Tesla publicó una respuesta en su sitio web que incluía una referencia al estudio NHTSA: “Hace más de un año, nuestra primera versión de Autopilot reveló que el gobierno de Estados Unidos reducirá las tasas de choques hasta en un 40%. Los datos internos confirman que las actualizaciones recientes de Autopilot han mejorado la confiabilidad del sistema”.

Whitfield sostiene que los datos no muestran nada por el estilo. El problema principal que identificó: NHTSA tomó implementaciones de bolsas de aire antes y después de la instalación del Autosteer para estimar el número de accidentes por millón de millas. Pero a la mayoría de los autos reportados por Tesla les faltaban las millas que viajaba el auto antes de que se instalara el Autosteer. Sin nada que agregar a la ecuación, pero con el mismo número de implementaciones de bolsas de aire, cualquier hallazgo podría inflar la tasa de accidentes para los autos que usaban antes del Autosteer, indicó.

Para la pequeña minoría de automóviles para los que se proporcionaron datos de kilometraje tanto antes como después de la instalación del Autosteer, el Tesla estuvo involucrado en un 60% más de accidentes, calculó Whitfield. Eso podría significar que los autos con Autosteer eran más peligrosos que los autos sin ellos.

Whitfield enfatizó que él no había sacado tal conclusión. “No hemos producido estos datos. No respondemos por ello. No sabemos si es verdad o no”, dijo.

Pero el ejercicio deja claro que las conclusiones de la NHTSA “no están bien fundadas”, afirmó.

En su informe, Whitfield dijo que ni él ni su compañía tenían una participación financiera en Tesla ni en ninguna compañía u organización relacionada con vehículos autónomos, y nadie la pagó.

Su interés en el tema está motivado por la preocupación pública, agregó. “Los esfuerzos para ocultar el registro de fallos impedirán el progreso en la consecución de cualquier beneficio de seguridad que puedan aportar los sistemas avanzados de asistencia al conductor”.

El 13 de febrero, Tesla emitió una declaración que decía en parte: “Nuestros propios datos de seguridad del vehículo para Q3 y Q4, que incluyen datos de aproximadamente dos mil millones de millas conducidas en vehículos de Tesla, muestran que los conductores que usan el piloto automático tienen significativamente menos probabilidades de participar en un accidente que los que conducen sin usar piloto automático “.

La declaración de la compañía hizo solo una referencia al documento de Whitfield, diciendo que “el análisis de QCS descartó los datos de todos menos 5,714 vehículos del total de 43,781 vehículos en el conjunto de datos que proporcionamos a NHTSA en 2016”. Whitfield, a su vez, señaló que no estaba descartando datos, señalaba que no se proporcionaron datos esenciales.

Alain Kornhauser, quien dirige el programa de ingeniería de vehículos autónomos de la Universidad de Princeton, tiene otro problema con el hallazgo de NHTSA: los datos muestran que, si la meta es la determinación de seguridad, NHTSA está haciendo las preguntas incorrectas. Señala que el estudio de la NHTSA no evaluó si el Autosteer estaba encendido o apagado cuando se activaron las bolsas de aire.

“¿No es el problema de la seguridad del piloto automático la cuestión de cuándo está activado el piloto automático y no? La pregunta no es si el piloto automático está disponible o no”, enfatizó Kornhauser. “Tal vez necesitamos más transparencia. Lo que probablemente necesitamos es que la NHTSA publique todos los datos que les dio Tesla”.

Tesla no es la única información que la NHTSA mantiene en secreto. A principios del 2018, cuando General Motors solicitó a la NHTSA una exención especial para desplegar autos sin conductor en los EE.UU., Smith, el profesor de derecho, presentó una solicitud federal de la Ley de Libertad de Información para ver qué estaba pidiendo GM. NHTSA ha ignorado la solicitud, dijo Smith.

En 2018, antes de que se publicaran los datos subyacentes, la agencia en una nota de Bloomberg calificó de “superficial” su propia conclusión del Autosteer y dijo que no estaba evaluando su efectividad.

El Congreso tendrá la oportunidad de revisar las preguntas de los datos cuando vuelva a tratar de aprobar una legislación sobre autos sin conductor más adelante este año. Uno de los grupos que podría estar incómodo en ese esfuerzo, PAVE (Partners for Automated Vehicle Education), ha identificado la transparencia de los datos como un tema clave en la construcción de la confianza pública en la tecnología autónoma.

La organización fue formada en 2018 por compañías automotrices, compañías de tecnología, defensores de la seguridad y grupos de derechos de las personas con discapacidades para ayudar a educar al público. Tesla y Uber no han sido invitados a unirse al grupo.

Para leer esta nota en inglés, haga clic aquí.

Anuncio