Tecnología Social

Tay, la inteligencia artificial de Microsoft, suspendida por comentarios racistas

Tay, el chatbot de Microsoft, fue suspendido tras un día de actividad por hacer comentarios racistas y ofensivos a sus seguidores

tay

Tay (@TayandYou), un programa de  inteligencia artificial que Miscosoft diseñó para chatear con un público joven, de 18  a 24 años, pero tuvieron que suspenderlo luego de que les generara algunos problemas.

En teoría, el programa debía funcionar en Twitter respondiendo a preguntas de sus seguidores, pero resulta que en solamente un día de haber empezado, la empresa tuvo que porque el público logró que empiece a difundir mensajes racistas, sexistas y ofensivos.

Micrsoft comentó que todo fue culpa de la gente que emprendió un “esfuerzo coordinado” para que el chatbot, Tay, “respondiera de forma inapropiada”

LEA MÁS  Twitter anuncia nuevas medidas para reducir el contenido abusivo

microsoft-ai-bot-tayandyou-300x196

La intención de Microsoft tras la creación de Tay, cuentan sus investigadores, fue saber más sobre computadoras y la conversación humana. En su sitio web, la compañía comentó que el programa estaba “diseñado para atraer y entretener a personas que se conectan, por medio de una conversación casual y divertida”. El programa usaba mucha jerga y trataba dar respuestas graciosas a mensajes y fotografías. La empresa también comentó que “mientras más interactuas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”.

LEA MÁS  Tips útiles: cómo definir y traducir palabras sin tener que dejar la página que lees

No obstante, muchos de los usuarios encontraron que las respuestas de Tay eran raras, y otros vieron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes de ese tipo. De pronto, se generó un furor en las redes sociales porque Tay le estaba mandando mensajes  de empatía a Hitler.

LEA MÁS  Al estilo Netflix: Microsoft crea un servicio de suscripción para videojuegos

“Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondieran de forma inapropiada”, dijo Microsoft en un comunicado oficial. La empresa también dijo que “hace ajustes” a Tay, pero no confirmaron una posible fecha de regreso. La mayoría de los mensajes en su cuenta de Twitter habían sido borrados para el jueves a la tarde.

COMPARTIR

REALICE UN COMENTARIO