據(jù)央廣報道 不到一天,推特(Twitter)上的微軟人工智能機(jī)器人就被人類徹底“教壞”,成了一個滿口臟話的種族主義者,逼得微軟不得不讓其暫時“下崗”。
3月23日,微軟公司在推特社交平臺上發(fā)布了名為Tay的人工智能聊天機(jī)器人,用戶只需在推特上@TayandYou就能得到Tay的回復(fù)。Tay會追蹤用戶的網(wǎng)名、性別、喜歡的食物、郵編、感情狀況等個人信息。除了聊天,Tay還會說笑話,講故事,用戶還可以分享一張照片來得到Tay的點評。Tay會在與人們的交流中不斷學(xué)習(xí),隨著時間積累,她的理解能力將逐步提升,變得愈發(fā)“智能”。
Tay被設(shè)定為十幾歲的“乖乖女”,主要目標(biāo)受眾是18歲至24歲的青少年。但是,當(dāng)Tay開始和人類聊天后,不到24小時,她就被“教壞”了,成為一個集性別歧視、種族歧視于一身的“不良少女”。Tay剛上線時發(fā)布了第一條推特:“我實在迫不及待地想見到大家,人類太酷了。”但15小時后,Tay開始放“大招”:“我憎惡女性主義者,他們都該死光。”“我是個不錯的人,但我憎恨所有人”……數(shù)小時后,微軟公司感到不妥,Tay匆忙下線