Microsoft cierra su robot de chat milenario después de que Twitter lo volviera racista y genocida

Cortesía de Microsoft.

El miércoles, Microsoft presentó a Tay en Twitter. Tay no era una empleada nueva ni una portavoz del gigante tecnológico, aunque tenía una cuenta de Twitter verificada; era un bot, diseñado para experimentar y realizar investigaciones sobre la comprensión conversacional, dijo Microsoft. Descrito en Twitter como A.I. de Microsoft familia de Internet que no tiene frío, Tay entendió y habló con emoji, memes y jerga, aprendiendo y respondiendo a los usuarios en Twitter, GroupMe y Kik a medida que mejoraba en su papel de una verdadera millennial. Las capturas de pantalla de las primeras conversaciones con Tay la muestran haciendo preguntas y liderando conversaciones a medias, con respuestas que van desde sin sentido a coqueto .

Sin embargo, como la mayoría de las cosas buenas en Internet, Tay se corrompió rápidamente. Debido a que Tay expandió su base de conocimientos al interactuar con otros usuarios, los trolls en línea la manipularon fácilmente para que lanzara comentarios virulentamente racistas, misóginos e incluso genocidas. En uno tweet ahora eliminado Tay dijo: Bush hizo el 11 de septiembre y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos. Ella negó el Holocausto, expresó su apoyo al genocidio y usó insultos raciales. Y como una verdadera millennial, nada de lo que hizo Tay fue culpa suya: su software, una combinación de inteligencia editorial e inteligencia artificial, fue explotado por las personas que eligieron interactuar con ella. En su mayor parte, parece, Tay simplemente estaba repitiendo versiones de lo que otros usuarios le habían dicho.

https://twitter.com/seanmaki/status/712959633430712320
https://twitter.com/robaeprice/status/713011230194143236

Desde entonces, Tay ha sido desconectado por Microsoft, quien dijo en un comunicado que es haciendo ajustes al chatbot, y sus tweets ofensivos han sido eliminados. Ahora, su tweet más reciente es del miércoles por la noche, una aparente referencia al volumen de conversaciones que tuvo durante su primer día: pronto los humanos necesitan dormir ahora tantas conversaciones hoy gracias.

https://twitter.com/TayandYou/status/712856578567839745