Tech

Microsoft suspendió a Tay, el bot millenial, por racismo

Menos de un día después de su lanzamiento, el chatbot Tay comenzó a lanzar mensajes racistas, sexistas y ofensivos, por lo que Microsoft tuvo que suspenderlo; aunque anunció su reprogramación, no hay una fecha para relanzarlo a las redes.
AP
24 marzo 2016 19:18 Última actualización 24 marzo 2016 19:20
Etiquetas
Tay Microsoft

(Tomada de www.tay.ai)

SAN FRANCISCO.- El bot millenial Tay tardó más en aprender a hablar e interactuar que en ser retirado del mercado. Un día después de su lanzamiento, Microsoft lo suspendió por completo por la difusión de mensajes racistas, sexistas y ofensivos.

"Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada", dijo Microsoft en un comunicado.

La compañía informó que la "actitud" de su nueva creación se debió a un esfuerzo coordinado de múltiples usuarios para hacer que Tay respondiera de manera inapropiada.

"No puedo creer que no lo vieran venir", lamentó el científico computacional Kris Hammond.



Microsoft comentó que Tay fue creado como un experimento para saber más sobre computadoras y conversación humana. En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y diseñado para atraer y entretener a personas con una conversación casual y divertida.

El chatbot fue lanzado el miércoles, y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

Pero algunos usuarios encontraron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes ofensivos.

Pronto, Tay comenzó a enviar mensajes de empatía a Hitler, lo que creó furor en redes sociales.

Aunque la empresa no dio detalles, Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas. Tay parece una versión de tecnología de "llamada y respuesta", agregó Hammond, quien estudia inteligencia artificial en la Universidad Northwestern y también funge como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.

"Todo el mundo dice que Tay se convirtió en esto o que se volvió racista", dijo Hammond. "No es verdad". El programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron ver qué pasaría.

 La compañía debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay, señaló Caroline Sinders, experta en "analítica conversacional" y quien trabaja en robots de chat para otra empresa tecnológica. Dijo que Tay era "un ejemplo de mal diseño".

En lugar de montar algunos lineamientos sobre cómo lidiaría el programa con temas controversiales, aparentemente Tay fue dejado a su suerte para aprender lo que se le dijera, añadió Sinders.

"Es realmente un buen ejemplo de aprendizaje de máquinas", dijo la experta. "Aprende de retroalimentación. Eso significa que necesita mantenimiento constante".

Sinders espera que Microsoft vuelva a lanzar el programa, pero solo después de "realizarle mucho trabajo".

Microsoft anunció que "hace ajustes" a Tay, pero no detalló una posible fecha para su regreso. La mayoría de los mensajes en su cuenta de Twitter ya habían sido borrados para la tarde del jueves.

Todas las notas TECH
¿Dónde aprovechar las ofertas del Black Friday y Cyber Monday en México?
¿Qué obstáculos tienen las empresas en su transformación digital?
Este aparatito podría ayudar a caminar a gente paralizada
Comida, ¿el 'cemento' del futuro?
Twitter te escuchó y ya prepara una sección para que guardes tuits
En esta 'estación', tal vez no puedas cargar un Tesla, pero sí tu iPhone
Tus papas fritas podrían ayudar a combatir el cambio climático
El arduo trabajo para poner en órbita el primer nanosatélite mexicano
México tendrá sus primeras clases sobre industria 4.0 y digitalización
Hackeo a Uber habría afectado a clientes de Banorte y Banco Azteca: Condusef
'Brainternet', el proyecto que conectó el cerebro humano a internet
De emprendedor a Pyme, ¿qué debes aprender?
El fondo que invertirá 25 mdd en basura mexicana
Tesla construye la batería más grande del mundo en tiempo récord
¿Crees que tus habilidades tecnológicas se volverán obsoletas?
EU pide protecciones para Facebook y Google en renegociación de TLCAN
La Unaq va por mayor presencia en el extranjero
Los famosos podrán decidir qué mostrarte cuando los googleas
El 'doodle' pinta un jaguar mexicano al estilo José Clemente Orozco
¿Quieres un 'match' que sea guitarrista? Hay un 'Tinder' para músicos
La foto con que la sonda Cassini se despidió de Saturno
Jalisco busca endurecer reglas para Uber
¿Bebes para relajarte? No todo el alcohol tiene ese efecto y este estudio lo muestra
Alumnos de la UNAM crean lentes inteligentes con 'biblioteca' incluida
¿Quieres ir al hackaton del FC Bayern Munchen en Alemania? Te decimos cómo aplicar