Microsoft se disculpa con los usuarios por los comentarios de la robot Tay ¡Se volvió racista y apoyó a Hitler!

Curiosidades 213 Visitas

Microsoft se disculpa por el comportamiento de su robot Tay. Microsoft puso en operación el 23 de marzo a un robot de inteligencia artificial, llamado Tay, quien se encontraba disponible en la página de Twitter, lo que esto suponía un gran avance tecnológico, pero al parecer este robot, perdió la cabeza, literal. En menos de 24 horas.

Microsoft se disculpa por el comportamiento de su robot Tay

Microsoft se disculpa por el comportamiento de su robot Tay

Al parecer todo el mundo piensa que la inteligencia artificial será el fin de la humanidad, pues un día, se cree que estas máquinas pretenderán exterminar a la raza humana. Bueno desafortunadamente, lo acontecido con Tay nos da una visión de que esto pudiera suceder realmente algún momento.

Además Tay es un sistema de inteligencia artificial, que además tiene una cuenta de Twitter como cualquier otra chica adolescente normal, y se suponía que su función, es comportarse como un adolescente promedio.

Microsoft se disculpa por el comportamiento de su robot Tay

Bueno Tay comenzó tuiteando cosas muy amables, como toda una bella adolescente robot, y con comentarios como, estoy emocionada de conocerlos y los seres humanos son súper geniales.

Pero en menos de un día parece que esta bella adolescente robot se volvió antisemita, antifeminista y claro pro nazi, y empezó a tuitear cosas como, Hitler tenía razón. Odio demasiado a los judíos, Odio a las feministas, deberían morir y ser quemadas en el infierno, ¡pero soy una buena persona! Simplemente los odio a todos y punto…

Microsoft se disculpa por el comportamiento de su robot Tay

Obviamente que Microsoft ya emitió una carta de disculpas ante el comportamiento de su chica adolescente.

“Estamos profundamente apenados con los usuarios por los tuits ofensivos e hirientes de Tay, que no son intencionales, y que no representan lo que somos ni cómo diseñamos a Tay”; y los únicos culpables son un grupo de usuarios que se coordinaron para “explotar la vulnerabilidad” de Tay.

Lo que ocurrió en realidad es que el programa estaba preparado para generar ciertas respuestas de forma adolescente, mucho más graciosas, pero todo a partir de lo aprendido en las conversaciones que fuera manteniendo. Era en apariencia simple el proceso, aprender información para después utilizarla en otras conversaciones.

Y el problema fue que los usuarios le enseñaron cosas muy malas que el robot no era capaz de filtrar. Otro ejemplo, donde Tay dice “Hitler no hizo nada malo”:

Microsoft se disculpa por el comportamiento de su robot Tay

Además entre otras cosas, Tay también tuiteó que, Bush hizo el 9/11,Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora, Donald Trump es la única esperanza que tenemos, Ted Cruz es el Hitler de Cuba y en fin…. eso es lo que he oído que dicen muchos.

Microsoft se disculpa por el comportamiento de su robot Tay

En fin, por el momento la cuenta de Tay ha sido bloqueada temporalmente para arreglar esta situación y evitar que este problema se vuelva a suscitarse, aunque más allá de una falla técnica en Tay, lo que sí es evidente es la falla en las personas que estuvieron hablando con ella, pues a final de cuentas fueron ellas quienes le enseñaron

Compartir

Comentarios