Alberto Muñoz

Freud y la GenAI

La inteligencia artificial generativa corre el riesgo de perpetuar estereotipos inexactos sobre la neurodivergencia, señala Alberto Muñoz.

La Inteligencia Artificial Generativa (GenAI) ha transformado radicalmente diversos sectores, prometiendo innovaciones sin precedentes también en el campo de la salud mental. Sin embargo, su aplicación en el diagnóstico y tratamiento de trastornos neurodivergentes enfrenta limitaciones significativas y plantea desafíos éticos complejos.

El principal reto radica en la habilidad de la GenAI para procesar y comprender la complejidad y la variabilidad de la neurodivergencia, cuyos síntomas y comportamientos son difíciles de diagnosticar debido a su amplia diversidad y naturaleza contextual. A pesar de que la Inteligencia Artificial puede aprender de extensos conjuntos de datos clínicos, la individualidad de los trastornos neurodivergentes puede eludir los patrones reconocibles por algoritmos, limitando así su efectividad en el diagnóstico preciso y personalizado.

El desarrollo de herramientas de IA capaces de simular emociones, voces y personalidades introducen dilemas complejos, especialmente cuando se considera la posibilidad de que pacientes se vuelvan dependientes de estas interacciones artificiales. Esta dependencia puede aislar aún más a los individuos, reemplazando el indispensable apoyo emocional y cognitivo que solo un terapeuta humano puede brindar. La simulación de empatía y comprensión por parte de la AI, sin la capacidad de ofrecer un verdadero apoyo, puede llevar a una deshumanización del cuidado en salud mental, desatendiendo las necesidades reales de aquellos con trastornos neurodivergentes.

Además, la GenAI corre el riesgo de perpetuar estereotipos y generalizaciones inexactas sobre la neurodivergencia, especialmente si los datos con los que se entrena contienen sesgos. Esta situación puede contribuir a malentendidos y diagnósticos erróneos, comprometiendo la calidad del cuidado y tratamiento.

A pesar de estas limitaciones, la GenAI ofrece potenciales beneficios en el futuro de la medicina y la terapia. Sin embargo, es esencial reconocer estas limitaciones y abordar los desafíos éticos mediante un enfoque equilibrado que combine la tecnología con la empatía, la comprensión profunda y el juicio ético de profesionales de la salud mental. Es crucial que los avances en IA se guíen por consideraciones éticas enfocadas en el bienestar del paciente y en la preservación de la dignidad humana.

En este contexto, el artículo “The therapeutic caveat: Prohibitions on manipulation and persuasion in the EU IA Act” aborda cómo el Acta de IA de la Unión Europea (EU) intenta equilibrar los beneficios de la IA en la terapia y la salud mental con los riesgos de

manipulación, permitiendo excepciones para sistemas de IA diseñados para propósitos terapéuticos con consentimiento informado. No obstante, existe la preocupación de que esta excepción se explote para justificar prácticas manipulativas bajo la apariencia de “propósitos terapéuticos”.

La pandemia ha exacerbado la prevalencia de trastornos mentales y ampliado la brecha digital, creando un modelo económico desigual y desafíos adicionales en la educación digital y la salud mental. Es imperativo definir claramente qué constituye “propósitos terapéuticos” y qué tipos de manipulación están permitidos para proteger la soberanía personal y asegurar que los sistemas de IA cumplan con altos estándares de calidad y efectividad.

Cerrar la “laguna terapéutica” en la legislación de la UE no solo protegería a los ciudadanos europeos sino que también promovería una innovación basada en la evidencia, asegurando que la aplicación de la IA en la salud se desarrolle con ética, eficacia y seguridad. Este enfoque subraya la importancia de adaptar la innovación tecnológica a los valores humanos y responder a los desafíos planteados por la disparidad en la salud mental en un mundo digitalmente dividido.

COLUMNAS ANTERIORES

El lenguaje como posible capital (¿Político?) Significados Simbólicos en el Relato de la Innovación
Nvidia GTC: la conferencia de la era de inteligencia artificial

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.