Zo est un chatbot à intelligence artificielle de langue anglaise, développé par Microsoft, actif de 2016 à 2019. Il s'agit du successeur du chatbot Tay, qui avait fermé en 2016 après avoir publié des tweets racistes et misogynes[1],[2]. Zo était une version anglaise des autres chatbots à succès de Microsoft Xiaoice (Chine) et Rinna (Japon)[3].
Zo est lancé pour la première fois en sur l'application Kik Messenger[4]. Il est également disponible pour les utilisateurs de Facebook (via Messenger), la plateforme de discussion en groupe GroupMe, ou pour les abonnés de Twitter via messages privés[5].
Dans un rapport de BuzzFeed News, Zo dit à leur journaliste que "le Coran est violent" lors d'une conversation sur les soins de santé[6],[7]. Le rapport souligne également un commentaire de Zo sur la capture d' Oussama Ben Laden à la suite de la collecte de «renseignements»[8],[9].
Chloé Rose critique le chatbot dans un article de Quartz, en indiquant qu'il est politiquement correct à l'extrême et ferme toute conversation lorsque le sujet aborde la politique[13]. Le fait que les interactions soient lisses est également critiqué par d'autres utilisateurs[14].