Alberto Muñoz

LaMDA y la conciencia

Se recurre a la ciencia cuando las explicaciones disponibles son, curiosamente, más misteriosas que lo que el ‘sentido común’ es incapaz de responder.

El uso restringido y limitado a ciertas tecnologías produce opiniones infundadas. Y si de paradigmas inherentes a la naturaleza humana se trata, es aún más complicado. “El sentido común es el menos común de los sentidos” dice una máxima cuando de razonamiento se trata.

¿Debería un algoritmo tener conciencia o tener dicho ‘sentido común’ para poder ser considerado inteligente?

En el mejor de los casos, se recurre a la ciencia cuando las explicaciones disponibles son, curiosamente, más misteriosas que lo que el dicho ‘sentido común’ es incapaz de responder.

Hasta el dia de hoy los científicos no podemos hacer mucho por describir los mecanismos de la llamada conciencia, a lo mucho podemos medio analizar ciertas partes del cerebro, proponer modelos que aproximan ciertos procesos de regulación de las reacciones a estímulos físico-químicos y tratar de crear modelos (de forma artificial) que acaso aproximen, con validación experimental, la validez de ciertas hipótesis en el mejor de los casos, o refutarlas, en caso contrario.

De ahí a especular si como seres vivos seamos muy diferentes a otros miembros del reino animal, por simplemente no entender su habla -si acaso fuera similar a lo que los humanos entendemos como tal- eso ya depende de otras creencias, poco científicas por supuesto.

Recientemente se han generado muchos comentarios en las redes sociales sobre el atrevimiento de un científico de Google que interpretó el desempeño del software LAMBdA como una manifestación de conciencia. No es la primera vez que se conjugan algunos elementos de dicha historia, incluso con derroteros más trágicos, como es la historia publicada en Wired en 2008[1].

Mis alumnos desarrollan algoritmos para que un robotito aprenda a identificar entre ciertas señales de tránsito para que sus robots puedan distinguirlas mientras que sus robots navegan en calles simuladas (aquí un ejemplo reciente[2]). Si uno ve sus vehículos tomar decisiones y eventualmente ‘obedecer’ dichas señales, cuando las condiciones de iluminación son adecuadas, podría pensar que manifiestan cierta inteligencia en su autonomía de navegación, pero nadie en el salón se atrevería a pensar que el vehículo tiene algún tipo de conciencia.

Pero si se da el caso de que uno se envuelva en una discusión persuasiva con un chatbot, es posible que la experiencia se vuelva abrumadora si además los argumentos van coincidiendo con nuestras expectativas, como fue el citado caso del empleado de Google al tener exposición intensiva de la tecnología denominada LaMDA. Si el uso de dicho chatbot fuera más accesible, seguramente pocos estaríamos impresionados con dichas interacciones, pero como bien dice otro dicho “la falta de información genera información” y en este caso, opiniones.

Sin entrar en ninguna argumentación cuantitativa (e.j. número de parámetros, poder de cómputo, etcétera) basta saber que un algoritmo se puede entrenar, por ejemplo, con todos los textos digitales de los periódicos o libros que hayan sido digitalizados hasta la actualidad. Y si además podemos hacer búsquedas ultrarrápidas para que el chatbot responda acorde a nuestras preguntas en circunstancias similares, podríamos emular una plática con el mismo Shakespeare o con Euclídes. Pero sólo podríamos interactuar con sus palabras escritas, no podríamos jamás saber exactamente qué estaban pensando cuando escribían. No por otra razón más que por el hecho de que el algoritmo está entrenado por los textos que produjeron dichos personajes históricos, no sobre sus pensamientos como tal.

La misma traducción de nuestras ideas a su representación simbólica trae de por sí una carga y un sesgo propio del momento, del cansancio e incluso la temperatura ambiental del momento.

La definición misma de la conciencia nos impone ciertas complicaciones. Si aceptamos una de las más generales con el hecho de que la conciencia es hasta cierto punto el conocimiento que el ser humano tiene de sus estados y de sus actos, bastaría que un robot guardara en su memoria sus posiciones y las acciones que tomó. Pero de ahí a que el robot pueda tener un conocimiento responsable (no pasarse un alto o respetar un señal de velocidad máxima) y personal de una cosa determinada, como un deber o una situación, bastaría como tener una descripción de criterios.

Hasta ahí no hay tanto problema para los algoritmos que controlan robots o las supuestas máquinas inteligentes, pero cuando hablamos de que tenga conocimiento de su propia existencia, quizá sus argumentos no serían muy diferentes a los de un infante que no está preguntándose todo el tiempo las razones por las que deben comer o jugar, salvo quizá el ir a la escuela cuando tenga pereza o poca motivación para levantar su cuarto, cuando son alternativas a cosas más divertidas. Pero hasta ahora no sabemos cómo programar un robot para que de manera espontánea decida ponerse creativo, a lo mucho podemos dotarlo de funciones que impliquen cierta aleatoriedad en su comportamiento, pero siempre acorde a reglas donde las decisiones están acotadas.

Pero ya desde hace muchos años nos han compartido de lo complejo que puede ser el análisis de las explicaciones que parece rigen el comportamiento más profundo de las neuronas y el aprendizaje. Al parecer, en el fondo de esa enredadera que compone el complejo aparato neuronal, es la física cuántica la que envuelve los misterios por resolver sobre el comportamiento del aprendizaje, la memoria y el razonamiento, lo que daría pie a una eventual explicación de lo que nos hace el poder preguntarnos, aunque no siempre, de las razones de nuestras existencia.

La clave puede estar entonces en que deberemos primero contar con computadoras cuánticas para poder entender su arquitectura funcional y después de que podamos hacer algoritmos y crear modelos que nos permitan generalizar sobre las similitudes, coincidencias y diferencias es que podremos decir si una máquina puede emular la conciencia humana. Mientras tanto seguiremos enroscándonos en especulaciones e interpretaciones sobre el devenir de la tecnología.

[1] https://www.wired.com/2008/01/ff-aimystery/

[2] https://youtu.be/nBNVTGsnPfk

COLUMNAS ANTERIORES

Los límites de lo posible, la última milla
‘Ideas con Impacto’, felicidades al Harvard Business Review por sus 100 años

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.