¿Y si un carro autónomo debe decidir a quién matar?
menu-trigger
ESCRIBE LA BÚSQUEDA Y PRESIONA ENTER

¿Y si un carro autónomo debe decidir a quién matar?

COMPARTIR

···
menu-trigger

¿Y si un carro autónomo debe decidir a quién matar?

bulletUn desarrollo más lento y cuidadoso de esa tecnología permitirá perfeccionar la toma de decisiones a las que este tipo de autos se enfrentarán, por ejemplo en aquellos casos en los que las consecuencias sean fatales.

Bloomberg / Mark Buchanan
07/02/2020
Al registrarte estás aceptando el aviso de privacidad y protección de datos. Puedes desuscribirte en cualquier momento.

No hace mucho, los entusiastas de la tecnología nos decían que para 2020 veríamos que los carros de autónomos serían lo común, con unos 10 millones en las carreteras. Esa resultó ser una estimación exagerada. La cifra real de vehículos en prueba es miles de veces menor, y aún se manejan principalmente en condiciones controladas. Las compañías también han retrocedido en sus ambiciones y le apuntan a más apoyo del conductor en lugar de una autonomía total, justo como nos recomendaban esperar los expertos en tecnología más sobrios.

Pero puede que un desarrollo más lento también esté bien, ya que debería ayudar a mejorar la seguridad de los vehículos y a los ingenieros a prepararse para otras amenazas, tales como que los piratas informáticos conviertan los autos en armas de destrucción masiva. Un despliegue más lento también nos da la oportunidad de formar algo de consenso social sobre la ética relacionada con los vehículos autónomos, los cuales inevitablemente se enfrentarán a decisiones con consecuencias morales, cuando tengan que escoger, por ejemplo, entre matar a los pasajeros chocando contra un árbol o girar hacia un grupo de peatones.

Los programadores tendrán que preparar a los carros para tomar esas decisiones cuando surjan ciertas condiciones y necesitarán alguna base justificable para hacerlo. Esta necesidad está creando una alianza de investigación un poco extraña, ahora que los éticos profesionales trabajan junto a los expertos en inteligencia artificial. Tenemos mucho que aprender, y muchos errores por cometer, antes de encontrar soluciones aceptables.

Hasta ahora, solo un gobierno nacional a establecido directrices reales sobre la manera en que los vehículos autónomos deben tomar decisiones. Se trata de Alemania, donde las directrices oficiales adoptan una visión fuertemente igualitaria: "En caso de situaciones accidentales inevitables, cualquier distinción basada en características personales (edad, género, constitución física o mental) está terminantemente prohibida. También se prohíbe compensar una víctima por otra. La programación general para reducir la cantidad de lesiones personales puede ser justificable".

Esta posición intenta alejarse de cualquier comparación entre personas: hombres contra mujeres, viejos contra jóvenes, cirujanos hábiles contra narcotraficantes reconocidos. Bajo esta visión, todas las personas cuentan por igual. Esto parece lo suficientemente natural, aunque esas nociones igualitarias pueden ir en contra de variaciones culturales locales en las actitudes morales, como queda claro si se analiza una muestra amplia de intuiciones morales de las personas.

Hace unos cuantos años, investigadores utilizaron un sitio web para recolectar aproximadamente 40 millones de elecciones respecto a dilemas teóricos de autonomía de conducción de personas en 223 regiones de todo el mundo y una gran variedad de culturas. Encontraron que si bien las personas generalmente dan más prioridad a las vidas humanas sobre las de animales, también tienden a preferir salvar al joven sobre el viejo. Las personas en países de América Central y del Sur tienden a priorizar las vidas de las mujeres y las de los aptos físicamente. En muchas regiones, las personas también expresaron preferencias por el alto estatus de los individuos, dando más valor a un ejecutivo que a un indigente.

Los estudios de este tipo ofrecen una guía a grandes rasgos sobre las verdaderas preferencias morales y cómo varían de un lugar a otro, e intentar alinearlas podría ser un buen inicio para los ingenieros. No obstante, las encuestas tampoco pueden ser la única guía, ya que las actitudes morales predominantes cambian con el tiempo. Históricamente, en muchos lugares, los valores explícitamente racistas o sexistas se han mantenido, a pesar de que muchas personas los consideran poco éticos.

Para muchos expertos, una mejor manera de identificar reglas confiables sería combinar el enfoque basado en encuestas con un análisis de las teorías éticas predominantes desarrolladas por filósofos morales. Se podría empezar con los puntos de vista del público, pero luego hacerlos pasar por el filtro de la teoría ética para ver si una regla es verdaderamente justificable tras un estudio concienzudo. Los expertos en ética se refieren a los puntos de vista que sobreviven a esta prueba como "preferencias blanqueadas". Por ejemplo, cualquier teoría ética rechazaría preferencias de un género sobre otro, aun cuando la encuesta encontrara dichas preferencias en algunas regiones. En cambio, preferencias como salvar a la mayor cantidad de personas pueden sobrevivir, así como la preferencia de alguien muy joven sobre alguien muy viejo.

En esta área evidentemente complicada, las políticas tendrán que guiarse por una especie de mezcla entre lo empírico y lo teórico. Cuando un carro de autónomo mate a unos niños, no será obvio cómo se tomó esa decisión. Sin embargo, las personas querrán saberlo. Más vale que las reglas vigentes sobrevivan a un escrutinio ético sistemático.