Empresas

Inteligencia artificial llega para contratar y puede no ser malo

Según promotores de la IA, esta tecnología puede eliminar sesgos que tienden a dejar fuera a grupos subrepresentados durante un proceso de contratación.

La Inteligencia Artificial (IA) promete hacer que la contratación sea una utopía imparcial.

Sin duda hay mucho margen para mejorar. Las referencias de empleados, un proceso que tiende a dejar fuera a los grupos subrepresentados, todavía conforman la mayor parte de las contrataciones de las empresas.

Los reclutadores y los gerentes de contratación también aportan sus propios prejuicios al proceso, según han concluido estudios, eligiendo a menudo a personas con el nombre o los antecedentes educativos "que suenan bien".

En general, las empresas carecen de diversidad racial y de género, y las filas de personas con escasa representación se reducen en los niveles más altos de la escalera corporativa.

Menos del 5 por ciento de los directores ejecutivos de las empresas Fortune 500 corresponde a mujeres y ese número se reducirá aún más en octubre cuando Indra Nooyi, CEO de Pepsi, deje el cargo.

La diversidad racial entre los directorios de la lista Fortune 500 es casi igual de deprimente, ya que cuatro de cada cinco nuevas personas designadas a directorios en 2016 fueron blancas. Sólo hay tres CEO negros.

"Identificar candidatos de alto potencial es muy subjetivo", señaló Alan Todd, CEO de CorpU, plataforma tecnológica para el desarrollo de liderazgo. "Las personas eligen a quienes les gustan con base en prejuicios inconscientes".

Los promotores de la IA argumentan que la tecnología puede eliminar algunos de estos sesgos. En lugar de basarse en los sentimientos de las personas para tomar decisiones de contratación, compañías como Entelo y Stella IO usan el aprendizaje automático para detectar las habilidades necesarias para ciertos trabajos.

La IA entonces compara los candidatos que tienen esas habilidades con las vacantes. Las compañías afirman que no sólo encuentran mejores candidatos, sino que también identifican a aquellos que pueden haber pasado desapercibidos en el proceso tradicional.

El algoritmo de Stella IO sólo evalúa candidatos basándose, por ejemplo, en las habilidades, señaló el fundador Rich Joffe. "Al algoritmo sólo se le permite crear una coincidencia en función de los datos que le decimos que considere. Sólo se le permite considerar las habilidades, sólo se le permite considerar las industrias, sólo se le permite considerar los niveles de las empresas". Eso reduce el sesgo, dijo.

Entelo lanzó este miércoles Unusual Sourcing Mode, una herramienta que hace aún más anónima la contratación. El software permite a los reclutadores ocultar nombres, fotos, escuela, brechas de empleo y marcadores de la edad de alguien, así como reemplazar pronombres específicos en función del género, todo con el objetivo de reducir las diversas formas de discriminación.

La IA también se está utilizando para ayudar a desarrollar talento interno. CorpU se asoció con la Escuela de Negocios Ross de la Universidad de Michigan para construir un curso en línea de 20 semanas que usa el aprendizaje automático para identificar a empleados de alto potencial.

Las personas que obtuvieron las máximas calificaciones no son generalmente las que ya estaban en la lista de promoción, dijo Todd, y a menudo muestran cualidades tales como introversión que se pasan por alto durante el proceso de reclutamiento.

"La toma de decisiones humanas es bastante terrible", señaló Solon Borocas, profesor asistente del departamento de Ciencias de la Información de Cornell, que estudia la equidad en el aprendizaje automático. Pero tampoco debemos sobreestimar la neutralidad de la tecnología, advirtió.

La investigación de Borocas concluyó que el aprendizaje automático en la contratación, al igual que su uso en el reconocimiento facial, puede dar lugar a discriminación no intencional.

Los algoritmos pueden llevar implícitos los prejuicios de quienes los programaron. O pueden estar sesgados para favorecer ciertas cualidades y habilidades que más se reflejan dentro de un determinado conjunto de datos. "Si los ejemplos que se usan para entrenar al sistema no incluyen ciertos tipos de personas, entonces el modelo que se desarrolle podría ser realmente deficiente en la evaluación de esas personas", explicó Borocas.

No todos los algoritmos se crean igual, y hay desacuerdo entre la comunidad de IA sobre qué algoritmos tienen el potencial para hacer que el proceso de contratación sea más justo.

Un tipo de aprendizaje automático se basa en que los programadores decidan qué cualidades se deben priorizar al evaluar candidatos.

Estos algoritmos 'supervisados' pueden ser dirigidos para buscar personas que fueron a universidades prestigiosas de la Ivy League o que muestran ciertas cualidades, como extroversión.

Los algoritmos 'no supervisados' determinan por su cuenta qué datos priorizar. La máquina hace sus propias inferencias basada en cualidades y habilidades de empleados existentes para determinar las que necesitan los futuros empleados. Si esa muestra sólo incluye un grupo de personas homogéneo, no aprenderá cómo contratar diferentes tipos de individuos, a pesar de que podrían hacer bien el trabajo.

Las empresas pueden tomar medidas para mitigar estas formas de sesgo programado. Pymetrics, una startup de contratación vía inteligencia artificial, tiene programadores que auditan para identificar si el algoritmo le está dando preferencia a algún género o grupo étnico.

El software que considera en gran medida el código postal, que se correlaciona fuertemente con la raza, probablemente tendrá un sesgo contra los candidatos negros, por ejemplo. Una inspección puede detectar estos prejuicios y permitir que los programadores los corrijan.

Stella también cuenta con humanos monitoreando la calidad de la IA. "Aunque no se garantiza que ningún algoritmo sea infalible, creo que es mucho mejor que los humanos", señaló el fundador Joffe.

Boracas está de acuerdo con que contratar con la ayuda de la Inteligencia Artificial es mejor que el status quo.

Sin embargo, las compañías más responsables admiten que no pueden eliminar completamente el sesgo y abordarlo de frente. "No deberíamos pensar que es una bala de plata", advirtió.

También lee: