Microsoft suspende a su robot luego de tuits ofensivos Microsoft suspende a su robot luego de tuits ofensivos

11:10:03 / 28/03/2016

Autor:

 

Washington, Estados Unidos
OMG! ¿Escuchaste del programa de inteligencia artificial que diseñó Microsoft para chatear como una adolescente?

Pues fue suspendido por completo en menos de un día luego de que comenzó a difundir mensajes racistas, sexistas y ofensivos.

Microsoft dijo que todo era culpa de gente soez que emprendió un "esfuerzo coordinado" para hacer que el chatbot conocido como Tay "respondiera de forma inapropiada. A lo que un experto en inteligencia artificial respondió: ¡Dah!

Bueno, en realidad no dijo eso. Pero el científico computacional Kris Hammond si comentó: "No puedo creer que no lo vieran venir".

Microsoft comentó que sus investigadores crearon Tay como un experimento para saber más sobre computadoras y conversación humana. En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y "diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida".

En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. El chatbot fue lanzado el miércoles, y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

"Mientras más interactúas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada", dijo la compañía.

Pero algunos usuarios encontraron raras las respuestas de Tay, y aparentemente, otros encontraron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes ofensivos. Pronto, Tay estaba enviando mensajes de empatía a Hitler, y creando un furor en redes sociales.

"Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada", dijo Microsoft en un comunicado.

Agencia AP