Tecnología Social

Tay, la inteligencia artificial de Microsoft, suspendida por comentarios racistas

Tay, el chatbot de Microsoft, fue suspendido tras un día de actividad por hacer comentarios racistas y ofensivos a sus seguidores

tay

Tay (@TayandYou), un programa de  inteligencia artificial que Miscosoft diseñó para chatear con un público joven, de 18  a 24 años, pero tuvieron que suspenderlo luego de que les generara algunos problemas.

En teoría, el programa debía funcionar en Twitter respondiendo a preguntas de sus seguidores, pero resulta que en solamente un día de haber empezado, la empresa tuvo que porque el público logró que empiece a difundir mensajes racistas, sexistas y ofensivos.

Micrsoft comentó que todo fue culpa de la gente que emprendió un “esfuerzo coordinado” para que el chatbot, Tay, “respondiera de forma inapropiada”

LEA MÁS  Todo un espectáculo: el récord Guinness World de drones volando

microsoft-ai-bot-tayandyou-300x196

La intención de Microsoft tras la creación de Tay, cuentan sus investigadores, fue saber más sobre computadoras y la conversación humana. En su sitio web, la compañía comentó que el programa estaba “diseñado para atraer y entretener a personas que se conectan, por medio de una conversación casual y divertida”. El programa usaba mucha jerga y trataba dar respuestas graciosas a mensajes y fotografías. La empresa también comentó que “mientras más interactuas con Tay, se vuelve más inteligente, para que uno pueda tener una experiencia más personalizada”.

LEA MÁS  El sueño del turista: esta valija inteligente te sigue sola a todas partes

No obstante, muchos de los usuarios encontraron que las respuestas de Tay eran raras, y otros vieron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes de ese tipo. De pronto, se generó un furor en las redes sociales porque Tay le estaba mandando mensajes  de empatía a Hitler.

LEA MÁS  Unos vivos: ‘Steve Jobs’ ya es una marca italiana y Apple no puede hacer nada

“Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondieran de forma inapropiada”, dijo Microsoft en un comunicado oficial. La empresa también dijo que “hace ajustes” a Tay, pero no confirmaron una posible fecha de regreso. La mayoría de los mensajes en su cuenta de Twitter habían sido borrados para el jueves a la tarde.

REALICE UN COMENTARIO

COMPARTIR

NOTICIAS RECOMENDADAS

ÚLTIMAS NOTICIAS

Balcedo http://www.nexofin.com/archivos/2018/01/balcedo-8.jpg
Caso Balcedo

Creen que Balcedo maneja una fortuna de 35 millones de dólares

Al titular del SOEME le adjudicaron 18 propiedades y 40 autos de alta gama, motos, cuatriciclos y lanchas. Y todavía no terminó la búsqueda de bienes en Argentina y Uruguay
http://www.nexofin.com/archivos/2018/01/practicar-deporte-con-calor.jpg
Fitness

Cómo prepararse para retomar el entrenamiento

Falta de tiempo, de motivación o incluso una lesión pueden alejarnos de la actividad por cierto tiempo; mirá todas las recomendaciones para volver
http://www.nexofin.com/archivos/2018/01/1516698745_514525_1516699739_album_normal.jpg
Mundo

Así se vio Tokio durante la mayor nevada en cuatro años

Las fuertes nevadas han activado la mayor alerta por este fenómeno meteorológico en cuatro años, además de afectar al tráfico aéreo y ferroviario, así como al transporte por carretera en el centro y norte del país
Pelea http://www.nexofin.com/archivos/2018/01/pelea-6.jpg
La pelea de los famosos

Beto Casella destrozó a Feinmann: “Odia a las minas”

Al conductor de Bendita no le gustó nada lo que el periodista de A24 le dijo a Dolores Fonzi y le pegó sin filtro
Lula http://www.nexofin.com/archivos/2018/01/lula.jpg
Brasil

La Justicia de Brasil decide si envía a Lula da Silva a prisión

Es favorito para la elección de octubre. Pero lo condenaron por corrupción dentro del Lava Jato; se ratifica o anula la condena a nueve años y medio