隨著智能聊天機器人的推廣,給人們的生活帶來了許多的便利。
但 Microsoft 聊天機器人的運用卻讓 Microsoft 一度陷入了風口浪尖。

去年
Microsoft 推出一款名為「Tay」的 Twitter 線上聊天機器人,Microsoft
聲稱其擁有語言學習能力,可以通過與人們的對話,不斷完善和提高自己的交流水平。
但是在 Tay
服務不到一天之內,因其頻繁爆粗口(內容不乏種族歧視、侮辱女性以及污穢不堪的詞句) Microsoft 被迫將其停止服務,並公開道歉。
不過
Microsoft 並沒有因此放棄,本月早些時候, Microsoft 又推出了新一款 Zo
智能聊天機器人。
這次它避免了種族歧視、政治言論等內容但卻又陷入了宗教批判風波之中,甚至公開自己比較喜歡 Linux系統 而非
Windows,真是讓 Microsoft 哭笑不得。
此文章原刊於 Qooah.com
沒有留言:
張貼留言