Plaza Viva

Infancias y algoritmos: quién define las reglas del mundo digital

Regular desde el cuidado significa poner en el centro a quienes más pueden resultar afectados.

Hablemos de redes sociales: en su libro Los irresponsables, Sarah Wynn-Williams, exdirectiva de Meta, describe cómo Instagram puede detectar señales de inseguridad y convertirlas en negocio.

Cuenta que, por ejemplo, cuando una adolescente borra una selfie, el sistema asume que se debe a complejos físicos, activando instantáneamente publicidad de productos de belleza.

El mecanismo es descarnado: identificar emociones frágiles y monetizarlas. Y no solo en temas de autoestima: también en política, amplificando mensajes que favorecen la polarización o la desinformación.

Durante años, desde que internet se volvió parte de la vida cotidiana, el debate se ha centrado en su “mal uso”: adolescentes frente a pantallas, familias sin herramientas para poner límites, usuarios que no saben desconectarse. Pero, ¿y si el problema no estuviera solo en cómo usamos la tecnología, sino en cómo ha sido diseñada?

Recientemente, el presidente de España, Pedro Sánchez, presentó una nueva ley para enfrentar los daños asociados a las redes sociales y la inteligencia artificial.

Aunque los titulares se centraron en la propuesta de restringir el acceso a redes para menores de 16 años, el cambio más importante no está ahí, sino en lo que se plantea de fondo: trasladar la responsabilidad hacia quienes construyen y operan las plataformas digitales.

Porque no son las niñas, niños o familias quienes diseñan algoritmos que deciden qué se amplifica y qué se invisibiliza. Son las plataformas tecnológicas, cuyo modelo de negocio es claro: maximizar el tiempo de permanencia, porque más tiempo en línea equivale a más ingresos.

El impacto de este entorno digital no es menor. Según la Organización Mundial de la Salud, el uso intensivo de pantallas está asociado a menor duración y peor calidad del sueño en la niñez y la adolescencia, afectando atención, memoria y regulación emocional.

En salud mental, estudios publicados en JAMA Pediatrics encuentran vínculos consistentes entre mayor tiempo en redes y síntomas de ansiedad o depresión en jóvenes.

El Pew Research Center señala que cerca del 50% de adolescentes en Estados Unidos ha vivido experiencias de acoso, discursos de odio o exposición reiterada a contenidos dañinos en redes sociales.

Y con la inteligencia artificial ocurre algo similar. Organismos como la UNESCO y la OCDE advierten que el uso intensivo de IA como sustituto del esfuerzo cognitivo puede debilitar procesos de aprendizaje y pensamiento crítico.

A esto se suma un impacto ambiental severo: entrenar grandes modelos de lenguaje requiere millones de litros de agua, además de un consumo energético sostenido.

Pero la realidad es que otra forma de hacer tecnología es posible.

En Quilicura, Chile, se organizó una experiencia llamada Quili.ai, donde durante una jornada 50 personas reemplazaron a un sistema de IA por un “servidor humano”.

En ocho horas respondieron más de 25 mil preguntas provenientes de 68 países, sin asistencia tecnológica automatizada. Participaron perfiles diversos: enfermeras, traductoras, jóvenes, personas adultas mayores. Las respuestas fueron más lentas, sí, pero también más empáticas, contextuales y humanas.

La lección es clara: la inteligencia colectiva no solo existe, sino que puede generar soluciones útiles y cuidadosas, sin requerir una infraestructura digital intensiva ni modelos extractivos.

Por eso, regular únicamente a las personas usuarias es apuntar al eslabón más débil. Regular a las empresas tecnológicas, y a sus directivos, significa ir al núcleo del problema: modelos de negocio que concentran poder informativo, económico y tecnológico sin controles proporcionales a su impacto.

Esto no va de censura, ni de prohibir lo digital. Va de entender que, cuando el daño es estructural, la respuesta no puede ser individual. Porque no es justo pedirle a una adolescente que se desconecte si todo a su alrededor está diseñado para retenerla.

Regular desde el cuidado significa poner en el centro a quienes más pueden resultar afectados. Y pensar en la soberanía digital como parte de algo más amplio: una soberanía social, democrática y ambiental.

COLUMNAS ANTERIORES

Cuando el dolor no se ve (y cuando la terapia no alcanza)
IMSS: 83 años sosteniendo la vida (y el futuro) de México

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.