¿Un algoritmo para el COVID-19 decidirá quién muere en EU? Esto dice una experta
menu-trigger
ESCRIBE LA BÚSQUEDA Y PRESIONA ENTER

¿Un algoritmo para el COVID-19 decidirá quién muere en EU? Esto dice una experta

COMPARTIR

···
menu-trigger

¿Un algoritmo para el COVID-19 decidirá quién muere en EU? Esto dice una experta

bulletEl modelo de la administración de Donald Trump podría terminar costando vidas, afirma la doctora Cathy O'Neil, matemática y activista algorítmica.

Bloomberg / Cathy O'Neil
08/05/2020
Actualización 08/05/2020 - 16:11
Al registrarte estás aceptando el aviso de privacidad y protección de datos. Puedes desuscribirte en cualquier momento.
logo OPINIÓN
Bloomberg

He escrito extensamente sobre los peligros que surgen cuando las autoridades confían en algoritmos inescrutables para tomar decisiones importantes, evitando la discusión pública. Con demasiada frecuencia, sus modelos estadísticamente descuidados terminan costando vidas y medios de vida.

Lamentablemente, esto parece ser lo que sucederá precisamente con el modelo para el COVID-19 de la administración de Donald Trump.

El gobernador de Arizona, Doug Ducey, anunció planes para permitir que las empresas comiencen a reabrir esta semana después de consultar el nuevo modelo de predicción de la pandemia de la Agencia Federal para el Manejo de Emergencias (FEMA, por sus siglas en inglés), que no ha sido revelado al público.

La medida fue sorprendente porque un equipo de expertos universitarios, que había desarrollado su propio modelo en nombre del estado, había aconsejado esperar hasta finales de mayo, a fin de evitar que el sistema hospitalario se viera colapsado.

En mi libro, Armas de destrucción matemática, identifico tres propiedades que hacen que un algoritmo predictivo sea particularmente peligroso: debe ser importante, secreto y destructivo.

El nuevo modelo de la FEMA las tiene a todas. Si puede persuadir a un gobernador de levantar las órdenes de quedarse en casa en medio de una pandemia, es importante. Al momento de escribir este artículo sus detalles siguen siendo un secreto. Y si bien lo que sucederá en Arizona está por verse, tiene el potencial de destruir muchas vidas al justificar malas decisiones.

Tales modelos no surgen accidentalmente. Aparecen cuando la gente quiere evitar una conversación difícil, especialmente una que involucra una lucha histórica, dinero y decisiones complejas.

Los ejemplos ilustrativos incluyen un modelo que evaluó a los maestros de escuelas públicas y los algoritmos de “puntaje de riesgo de crimen” que deciden, entre otras cosas, quién es encarcelado antes del juicio. Ambas eran vergüenzas estadísticas profundamente defectuosas destinadas a evitar problemas difíciles, como qué hace un buen maestro y quién merece encarcelamiento.

Sin embargo, los gobiernos y las empresas siguen utilizando modelos de caja negra porque las personas, por temor a las matemáticas o la falta de información, rara vez los desafían.

Si alguna vez hubo un tema que requirió una discusión pública difícil, es la respuesta al COVID-19. ¿Cuántas personas estamos dispuestos a dejar morir para que las empresas sigan funcionando? ¿Y a qué personas dejaremos morir?

Al crear un modelo secreto para informar tales decisiones, el gobierno de Trump elimina estas preguntas de las esferas pública y científica, reemplazando el debate ético basado en datos con una herramienta política pseudomatemática.

Estas son malas noticias para la ciencia y una noticia potencialmente terrible para los residentes de Arizona.

*La doctora Cathy O'Neil es matemática y activista algorítmica.

*Esta columna no necesariamente refleja la opinión de la junta editorial, de Bloomberg LP y sus dueños. Ni de El Financiero.