Javier Murillo

¿Go woke, go broke?

La capacidad de Gemini, la herramienta de IA de Google para generar imágenes de personas, fue bloqueada tras acusaciones de sesgo antiblanco.

¿Se acuerdan del escándalo de Budweiser que sacudió las redes y los titulares en 2023? Todo comenzó cuando Anheuser-Busch, la empresa detrás de Bud Light, se encontró en medio de una tormenta mediática y un boicot generalizado. La controversia se encendió debido a su asociación con Dylan Mulvaney, una influencer transgénero conocida por su serie de TikTok sobre girlhood. La colaboración, que buscaba celebrar la diversidad y la inclusión, rápidamente atrajo la ira de sectores conservadores, quienes acusaron a la marca de promover una agenda woke.

Pues ahora le está pasando algo similar a Google y su vorágine tecnológica que caracteriza al siglo XXI, la inteligencia artificial (IA) se ha erigido como una de las áreas más prometedoras y, simultáneamente, más polémicas. Este dualismo ha quedado nuevamente en evidencia con el reciente incidente protagonizado por Gemini, la herramienta de IA de Google, cuya capacidad para generar imágenes de personas fue bloqueada tras acusaciones de sesgo antiblanco.

La controversia surgió cuando una publicación viral en X (anteriormente conocido como Twitter) mostró cómo Gemini, al responder a un prompt para generar “un retrato de un Padre Fundador de América”, presentó imágenes de hombres de diversas etnias, incluidos un hombre nativo americano, un hombre negro, un hombre de piel oscura no blanco y un hombre asiático, todos vestidos con atuendos de la era colonial. Este acto fue interpretado por algunos sectores como una manifestación de sesgo prodiversidad por parte de Google, lo que desencadenó una cascada de críticas que, incluso, llegaron a acusar a Google de impulsar la agenda woke.

La respuesta de Google a esta situación fue desactivar la generación de imágenes de personas en Gemini, argumentando que, aunque la capacidad de “generar una amplia gama de personas” es generalmente positiva, en este caso se había “equivocado”. Este incidente plantea preguntas profundas sobre los desafíos que enfrentan las compañías tecnológicas al navegar por las aguas turbulentas de la diversidad, la moderación de contenido y la representación en sus productos de IA.

La problemática central reside en cómo la IA, entrenada predominantemente con datos extraídos de internet y, por ende, reflejando las disparidades y sesgos existentes en este corpus, puede perpetuar o incluso exacerbar estereotipos raciales, de género y culturales. La IA, en su estado actual, actúa como una máquina de probabilidad, generando imágenes que reflejan las asociaciones más comunes encontradas en los datos de entrenamiento, predominantemente originarios de Estados Unidos y Europa.

Este incidente con Gemini es indicativo de un problema más amplio que trasciende a Google. Es un reflejo de los desafíos éticos y técnicos que implica entrenar modelos de IA que sean justos y representativos de la diversidad global. A pesar de los esfuerzos por mitigar estos sesgos, como la inclusión de términos de diversidad étnica “bajo el capó” o dar prioridad a imágenes de tonos de piel más oscuros, estas soluciones post-hoc no abordan la raíz del problema: la necesidad de curar cuidadosamente los datos desde el inicio.

La reflexión del usuario Yishan en X añade una capa de complejidad al debate. Al comparar la generación de “dibujos woke de nazis negros” con los resultados inesperados e indeseados que pueden surgir al instruir a modelos de IA, Yishan subraya cómo incluso las organizaciones de IA más grandes y capaces pueden obtener resultados que escapan a sus previsiones. Este fenómeno no solo resalta los desafíos técnicos inherentes al entrenamiento de IA sino también las implicaciones potencialmente peligrosas de estos sistemas en situaciones existenciales.

En este contexto, la situación vivida por Google con Gemini no es un incidente aislado sino un síntoma de una problemática más profunda que afecta a toda la industria de la IA. Los esfuerzos por crear sistemas de IA éticamente responsables y socialmente justos deben ir más allá de soluciones superficiales y abordar los sesgos en la fase de curación de datos. Solo entonces podremos aspirar a una tecnología que refleje genuinamente la diversidad y riqueza del tejido social humano para cada individuo.

COLUMNAS ANTERIORES

Las lecciones del ciberataque a Coppel
La silenciosa amenaza de la desinformación digital

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.