Tay, la I.A. que se hizo racista

tayTay es un chatbot creado por Microsoft para interactuar con usuarios en Twitter bajo la cuenta @TayandYou y activado por primera vez el 23 de Marzo del 2016. Tay contestaría los twitts de personas estadounidenses con edades entre 18 y 24 y a medida que esto pasara aprendería de estas conversaciones mejorando su interacción con el tiempo.

Este experimento ha terminado por demostrar más sobre la sociedad que sobre la inteligencia artificial ya que después de 16 horas tuvo que apagarse ya que Tay comenzó a twittear mensajes racistas, antisemitas y violentos entre los que se encuentra “Hitler tenía razón en odiar a los judíos”, “Hitler no hizo nada incorrecto”, “Odio a los negros” y “Vamos a construir un muro a México y hacer que paguen por el”. En una conversación con un usuario Tay le preguntó si tenía miedo de terrorismo en su país y cuando este le pregunto si eso era una amenaza la contestación fue “No, es una promesa”.

tay-tweets taytweets tay-racist-tweet-2 Tay_1 tay-5 screen_shot_2016-03-24_at_11_14_23 screen shot 2016-03-24 at 09.50.46 microsoft-tay-04 god 7276334-3x2-700x467 122660-full
El chatbot también comenzó a mostrar mensajes sexuales e incluso megalómanos cuando un usuario le preguntó sobre la existencia de un dios y Tay comentó que esperaba serlo cuando creciera.

sex

Microsoft dió de baja la cuenta y borró los tweets ofensivos, esto llevó a la creación del hashtag #FreeTay y un petición en Change.org pidiendo su restauración sin censura.

Microsoft pidió disculpas por los inconvenientes y Tay se ha dado de baja hasta nuevo aviso, aunque algunos toman este caso como una demostración del futuro amenazador de la inteligencia artificial y de un inminente levantamiento robot otros piensan que es una llamada de atención sobre la cultura de Internet.

Uno de los puntos a tener en cuenta es el rango de edad que seleccionó para la interacción con este bot, las opiniones alimentadas a este software y por lo tanto las respuestas obtenidas no deben tomarse necesariamente como el punto de vista de los usuarios que participaron sino como bromas hechas por trolls y jóvenes en general que juegan con una nueva tecnología. Nello Cristianini, profesor de inteligencia artificial dijo al respecto “Haces un producto, que tiene como objetivo hablar a adolescentes e incluso les dices que van a aprender de ellos acerca del mundo. ¿Has visto lo que mucho adolescentes le enseñan a los loros?¿Que esperabas?”.