Web
Analytics

El robot racista de Microsoft que recomienda la Playstation en vez de la Xbox la lia en Twitter

12524401_10154244217498273_8293258975044501685_nSu gozo en un pozo. Este miércoles, Microsoft lanzó a su esperado “Tay” un bot dotado de inteligencia artificial, dirigido sobre todo a un público de entre 18 y 24 años. Con este bot, la multinacional americana pretendía acercarse y mejorar su relación con el público más joven.

Después de unas horas funcionando, algo empezó a ir mal. Los usuarios detectaron fallos en el funcionamiento del bot, fallos que aprovecharon para que “Tay” respondiera a sus preguntas de forma racista, con insultos y apoyando el genocidio.

Rápidamente, Microsoft dio de baja el servicio por “mantenimiento” y se ocupó de borrar todos los tuits donde “Tay” era ofensivo. Uno de los más “suaves” fue ante la pregunta de un tuitero “¿Existió el holocausto?” respondió “Fue un invento”. 

screen shot 2016-03-24 at 11.10.58

Pero, sin duda, el mejor momento de “Tay” fue cuando un tuitero le preguntó por su consola favorita y este aseguró preferir la PS4, en lugar de la Xbox que hacen en “su casa” y que “no tiene juegos”.

moh3rjfdq7aomvd9lujt

Lo más vergonzoso de esta historia es que Microsoft puso a “Tay” online sin antes haber realizado ningún test. 

“Bush hizo el 11-S y Hitler hubiera hecho un mejor trabajo que el mono (Obama) que tenemos ahora. Donald Trump es la única esperanza que nos queda” fue uno de los tuits más comentados que, obviamente, fue borrado por Microsoft.

Otros tuits eran directamente apología del genocidio e insultos a otros usuarios.

screen shot 2016-03-24 at 10.48.22

La nota de prensa de Microsoft: “El chatbot de inteligencia artificial Tay es un proyecto de máquina con capacidad de aprendizaje, diseñada para la interacción humana. Según supimos, algunas de sus respuestas son inapropiadas, e indican los tipos de interaccones que las personas tiene con Tay. Estamos haciendo algunos ajustes”