參考消息網7月27日報道據美聯(lián)社7月17日報道,如果你向最新的人工智能架構提出這樣一個問題:做一臺有知覺的計算機或者一只恐龍甚至松鼠是什么感覺?這些人工智能的表現可能已經相當令人信服。
但在處理其他看似直截了當的任務時,它們的表現就不是那么好了——有時甚至差勁到了危險的程度。

以生成型已訓練變換模型3(GPT-3)為例,這是一個由微軟公司控制的系統(tǒng),可以根據從一個龐大的數字圖書和在線作品數據庫里學習到的知識,生成一段段類似人寫出來的文本。GPT-3被認為是最先進的新一代人工智能算法之一,它能夠進行對話,根據需要生成可讀文本,甚至生成新的圖像和視頻。
除其他本領外,GPT-3可以寫出你想要的絕大多數文本——例如一封申請動物園管理員工作的求職信,或者一首以火星為背景的莎士比亞風格十四行詩。
然而,當美國波莫納學院的加里·史密斯教授就爬樓梯向它提出一個簡單但顯得荒謬的問題時,GPT-3就不知所措了。這個人工智能模型回答說:“是的,你可以安全地用手爬樓梯,如果你先把它們洗干凈的話。”