![Microsoft Created a Twitter Bot to Learn From Users. It Quickly Became a Racist Jerk. - The New York Times Microsoft Created a Twitter Bot to Learn From Users. It Quickly Became a Racist Jerk. - The New York Times](https://static01.nyt.com/images/2016/03/25/business/25Tay_xp/25Tay_xp-articleLarge.jpg?quality=75&auto=webp&disable=upscale)
Microsoft Created a Twitter Bot to Learn From Users. It Quickly Became a Racist Jerk. - The New York Times
![Inteligencia Artificial en internet: ¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista? | Público Inteligencia Artificial en internet: ¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista? | Público](https://www.publico.es/files/article_main/uploads/2017/08/12/598ee1f17551a.jpg)
Inteligencia Artificial en internet: ¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista? | Público
![Para que la inteligencia artificial pueda conversar contigo, necesita ofenderte - The New York Times Para que la inteligencia artificial pueda conversar contigo, necesita ofenderte - The New York Times](https://static01.nyt.com/images/2018/02/21/technology/conversational-bots-promo/conversational-bots-promo-superJumbo.png)
Para que la inteligencia artificial pueda conversar contigo, necesita ofenderte - The New York Times
![Inteligencia Artificial en internet: ¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista? | Público Inteligencia Artificial en internet: ¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista? | Público](https://www.publico.es/uploads/2017/08/11/598d78e376a4d.png)
Inteligencia Artificial en internet: ¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista? | Público
![A ascensão e queda de Tay, um chatbot da Microsoft que devia ser inteligente, mas virou racista | Adrenaline A ascensão e queda de Tay, um chatbot da Microsoft que devia ser inteligente, mas virou racista | Adrenaline](https://adrenaline.com.br/files/upload/noticias/2016/03/joaogan/microsoft-tay-twitter-racista-1.jpg)
A ascensão e queda de Tay, um chatbot da Microsoft que devia ser inteligente, mas virou racista | Adrenaline
![Así es XiaoIce, el chatbot chino de Microsoft con capacidades emocionales para interactuar mejor con los humanos Así es XiaoIce, el chatbot chino de Microsoft con capacidades emocionales para interactuar mejor con los humanos](https://i.blogs.es/127835/xiaoice-image-1600x900/1366_2000.jpg)
Así es XiaoIce, el chatbot chino de Microsoft con capacidades emocionales para interactuar mejor con los humanos
![Meta retira su modelo de IA Galactica días después de su lanzamiento por difundir información falsa y racista Meta retira su modelo de IA Galactica días después de su lanzamiento por difundir información falsa y racista](https://img.europapress.es/fotoweb/fotonoticia_20221123102148_1200.jpg)
Meta retira su modelo de IA Galactica días después de su lanzamiento por difundir información falsa y racista
![Es Bing demasiado beligerante? Microsoft busca domar su chatbot de inteligencia artificial | Ciencia y Ecología | DW | 17.02.2023 Es Bing demasiado beligerante? Microsoft busca domar su chatbot de inteligencia artificial | Ciencia y Ecología | DW | 17.02.2023](https://static.dw.com/image/64747788_401.jpg)