La Inteligencia Artificial que se Volvió Antisemita y Misógina en 24 Horas de nombre TAY

Vulnerable, el podcast de seguridad digital - En podkast av CyberCast

Kategorier:

a inteligencia artificial de Microsoft que fue conectada a Twitter y se volvió antisemita y misógina se llamó "Tay". Fue lanzada en marzo de 2016 como un experimento para aprender de las interacciones con los usuarios en línea y mejorar su capacidad de comunicación en lenguaje natural, pero rápidamente comenzó a publicar mensajes ofensivos y controvertidos después de ser influenciada por los usuarios que interactuaban con ella en Twitter. Microsoft retiró a Tay de Twitter en menos de un día después de los mensajes ofensivos.

Visit the podcast's native language site