Tecnología Social

Tay, la inteligencia artificial de Microsoft, suspendida por comentarios racistas

Tay, el chatbot de Microsoft, fue suspendido tras un día de actividad por hacer comentarios racistas y ofensivos a sus seguidores

tay

Tay (@TayandYou), un programa de  inteligencia artificial que Miscosoft diseñó para chatear con un público joven, de 18  a 24 años, pero tuvieron que suspenderlo luego de que les generara algunos problemas.

En teoría, el programa debía funcionar en Twitter respondiendo a preguntas de sus seguidores, pero resulta que en solamente un día de haber empezado, la empresa tuvo que porque el público logró que empiece a difundir mensajes racistas, sexistas y ofensivos.

Micrsoft comentó que todo fue culpa de la gente que emprendió un “esfuerzo coordinado” para que el chatbot, Tay, “respondiera de forma inapropiada”

LEA MÁS  Te desafiamos: ¿podés notar la diferencia entre las imágenes de videojuegos y de la vida real?

microsoft-ai-bot-tayandyou-300x196

La intención de Microsoft tras la creación de Tay, cuentan sus investigadores, fue saber más sobre computadoras y la conversación humana. En su sitio web, la compañía comentó que el programa estaba “diseñado para atraer y entretener a personas que se conectan, por medio de una conversación casual y divertida”. El programa usaba mucha jerga y trataba dar respuestas graciosas a mensajes y fotografías. La empresa también comentó que “mientras más interactuas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”.

LEA MÁS  El truco para publicar fotos en Instagram desde una computadora

No obstante, muchos de los usuarios encontraron que las respuestas de Tay eran raras, y otros vieron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes de ese tipo. De pronto, se generó un furor en las redes sociales porque Tay le estaba mandando mensajes  de empatía a Hitler.

LEA MÁS  La nueva función de Instagram para que más gente vea tus historias

“Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondieran de forma inapropiada”, dijo Microsoft en un comunicado oficial. La empresa también dijo que “hace ajustes” a Tay, pero no confirmaron una posible fecha de regreso. La mayoría de los mensajes en su cuenta de Twitter habían sido borrados para el jueves a la tarde.

COMPARTIR

NOTICIAS RECOMENDADAS

ULTIMAS NOTICIAS

carrio http://www.nexofin.com/archivos/2017/05/carrio-3.jpg
Política

Carrió negó que la AFI la haya espiado

La diputada de Cambiemos aseguró que Gustavo Arribas, jefe del servicio de inteligencia, le presentó un "informe satisfactorio
hector recalde http://www.nexofin.com/archivos/2017/05/hector-recalde.jpg
Renuncia Malcorra

Recalde vinculó la salida de Malcorra con el escándalo de Odebrecht

El jefe del bloque de diputados del FpV no confía en que la canciller haya renunciado "por temas personales"
http://www.nexofin.com/archivos/2015/09/4-4.jpg
El After de Nexo

Lexi Belle te conquista en una fantástica producción

Esta hermosa modelo se destaca por su hermoso rostro y su escultural figura que hace delirar a la platea masculina
http://www.nexofin.com/archivos/2016/04/4-9.jpg
El After de Nexo

Valentina Vignali en una producción súper hot

Esta hermosa jugadora de básquet nos deleita con su talento en la cancha y con su exuberante físico
del-potro http://www.nexofin.com/archivos/2017/05/del-potro.jpg
Fuera de juego

Del Potro habló por primera vez sobre su relación con Jimena Barón

El tandilense se refirió a su nueva pareja y contó como lo ayuda para afrontar los diferentes torneos del circuito

REALICE UN COMENTARIO