Javier Murillo

Para que la justicia sea ciega, ¿debería ser impartida por tecnología de Inteligencia Artificial?

Se desconoce de fondo cómo estos algoritmos cambian la forma en que se administra la justicia, señala Murillo.

En 2011, una ley de Kentucky, Estados Unidos, estableció que el poder judicial podía utilizar un algoritmo, el HB463, para decidir si los acusados debían pagar una fianza en efectivo para subsanar sus faltas. Empero, lo que ocurrió fue que con el uso de este sistema hubo más casos de discriminación, relacionados con el tono de piel de los acusados. No es la primera vez que se documentan casos de sesgos relacionados con género, raza o creencias.

Los legisladores pensaron que, si obligaban a los jueces de Kentucky a consultar un algoritmo para ayudarlos a decidir si mantenían a un acusado en la cárcel antes del juicio, resultaría un sistema más económico y sobre todo justo para aquellos que esperan un juicio y que, con base en su comportamiento, tienen un puntaje de probabilidad de omitir su cita o reincidir antes del juicio.

En teoría, al enviar a una persona a su casa, se le facilita continuar con su vida laboral y familiar, lo que además le ahorraría dinero al gobierno. Según la Iniciativa de Política de Prisiones sin fines de lucro, más del 60 por ciento de las 730 mil personas detenidas en cárceles locales de EU, no han sido condenadas, por lo que la inteligencia artificial sería una herramienta útil.

Antes de que la ley de 2011 entrara en vigor, había poca diferencia entre la proporción de acusados negros y blancos a los que se les concedió la libertad para esperar el juicio en casa sin fianza en efectivo. Tras recibir el mandato de considerar un puntaje que predice el riesgo de que una persona reincida o se salte la corte, los jueces comenzaron a ofrecer la libertad sin fianza a los acusados blancos con más frecuencia que a los negros.

En consecuencia, la proporción de acusados negros con libertad sin fianza creció 25 por ciento y la tasa para los blancos aumentó más del 35 por ciento. Kentucky ha cambiado su algoritmo dos veces desde 2011. Datos muestran que la brecha se mantuvo sin cambios, lo que ha propiciado que agrupaciones civiles a favor de los derechos humanos trabajen para revertir el sesgo.

Se desconoce de fondo cómo estos algoritmos cambian la forma en que se administra la justicia. Periodistas, organizaciones civiles y académicos han demostrado que los algoritmos de calificación de riesgo pueden estar sesgados. ¿Ayudan a los jueces a tomar mejores decisiones?, aún no hay una respuesta definida.

Es un hecho que estamos en la etapa de pruebas de concepto, la procuración de justicia usando tecnología está destinada a ser uno de los campos en los que se prevé una mayor evolución de la Inteligencia Artificial, lo que en algún momento resultará en un alto porcentaje de decisiones judiciales automatizadas, la pregunta es, ¿qué está haciendo la Suprema Corte de Justicia de la Nación (SCJN) en México para transformar digitalmente su labor? No creo que mucho, cuando sólo el Ministro Presidente, Arturo Zaldívar, es el único con una importante presencia en medios digitales. Parece que México aún está lejos de implementar nuevas herramientas para la procuración de justicia. No obstante esta nueva Presidencia encabezada por Zaldívar podría dar los primeros pasos hacia la modernización del Poder Judicial de la Federación.

Fundador y Presidente del Consejo de Metrics.

COLUMNAS ANTERIORES

Las lecciones del ciberataque a Coppel
La silenciosa amenaza de la desinformación digital

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.