Zo
Tipus | bot conversacional |
---|---|
Equip | |
Desenvolupador(s) | Microsoft Research |
Més informació | |
Lloc web | www.zo.ai (descontinuat) |
| |
← Tay |
Zo va ser un chatbot d'intel·ligència artificial en anglès desenvolupat per Microsoft. Va ser el successor del chatbot Tay.[1] Zo era una versió en anglès dels altres chatbots d'èxit de Microsoft, Xiaoice (Xina) i ja (Rinna (bot)) (Japó).
Història
[modifica]Zo es va llançar per primera vegada el desembre de 2016 a l'aplicació Kik Messenger. També estava disponible per als usuaris de Facebook (a través de Messenger), la plataforma de xat grupal GroupMe, o per als seguidors de Twitter per xatejar-hi a través de missatges privats.
En un informe de BuzzFeed News, Zo va dir al seu periodista que "[l'Alcorà] era violent" quan parlava d'assistència sanitària. L'informe també va destacar com Zo va fer un comentari sobre la captura d'Ossama bin Laden com a resultat de la recollida d'"intel·ligència".[2][3]
Suspensió
[modifica]Zo va deixar de publicar a Instagram, Twitter i Facebook l'1 de març de 2019 i va deixar de xatejar a Twitter DM, Skype i Kik a partir del 7 de març de 2019. El 19 de juliol de 2019, Zo es va suspendre a Facebook i Samsung als telèfons AT&T. A partir del 7 de setembre de 2019, es va suspendre amb GroupMe.[4]
Recepció
[modifica]Zo va ser criticat pels biaixos introduïts en un esforç per evitar temes potencialment ofensius. El chatbot es nega, per exemple, a participar amb qualsevol menció, ja sigui positiva, negativa o neutral, de l'Orient Mitjà, l'Alcorà o la Torà, alhora que permet la discussió del cristianisme. En un article a Quartz on va exposar aquests biaixos, Chloe Rose Stuart-Ulin va escriure: "Zo és políticament correcte fins al pitjor extrem possible; esmenta qualsevol dels seus desencadenants i es transforma en un mocoso crític".[5]
Referències
[modifica]- ↑ Fingas, Jon. «Microsofts Second Attempt at AI Chatbot» (en anglès). Engadget, 05-12-2016. Arxivat de l'original el de juliol 25, 2018. [Consulta: 23 març 2018].
- ↑ Shah, Saqib. «Microsoft's "Zo" chatbot picked up some offensive habits» (en anglès). Engadget. AOL, 04-07-2017. [Consulta: 21 agost 2017].
- ↑ «Microsoft's Zo chatbot told a user that 'Quran is very violent'» (en anglès). indianexpress.com, 05-07-2017. [Consulta: 23 març 2018].
- ↑ «Zo AI» (en anglès). Arxivat de l'original el d’agost 11, 2019. [Consulta: 28 juliol 2019].
- ↑ Stuart-Ulin, Chloe Rose. «Microsoft's politically correct chatbot is even worse than its racist one» (en anglès). Quartz, 31-07-2018. [Consulta: 2 agost 2018].