3月,美國銀行推出了新的應用內(nèi)AI智能助手。名為Erica的機器人大概取自美國英文 “America” 的后半截。當然,Erica或許能夠搞定一切,但給客戶服務機器人一個女性綽號和聲音已經(jīng)成為一種慣例。
想想Alexa,Cortana和Siri。即使是在屏幕上進行網(wǎng)絡聊天,也可能會出現(xiàn)一個女性化的名字。
要想找到她們的同行——男性機器人,就得進入偏向技術化、知識化的領域。諸如IBM Watson(與IBM HR助手“Myca”相比)和“法律顧問”機器人ROSS。還有金融分析師Kensho和銀行聚合商Ernest。
在分工方面,人工智能有一個偏見問題,不僅僅是性別問題。這些機器人的音調(diào)和聲音也具有顯著的同質(zhì)性。畢竟,人工智能承擔著所“提供”數(shù)據(jù)的規(guī)范、關聯(lián)和假設。
一種解決方案是通過使機器人在性別、種族和文化背景中表現(xiàn)更公平和更公正,從而來識別和糾正這些偏見。例如,Waze等公司為用戶提供了一系列機器人身份選項。
另一個是停止建造“人性化”機器人。給機器人提供人名和身份源于這樣一種信念,即這樣做有助于人性化,鼓勵人們接受和互動。但是現(xiàn)在,機器人和智能設備已經(jīng)普及,因為在很大程度上打破了使用障礙。不再需要創(chuàng)建“人類”機器人,希望人們能夠使用它們。
為何如此人性化?
考慮到我們與人工智能的關系,為什么不讓機器人單純成為機器人呢?這既管理了對機器人性能的期望,又最大限度地減少了偏見的影響。 (當然,人類總會把自己的偏見帶到某種情況。)
例如,Kasisto的Kai bot是圍繞“機器人”身份構建的。它的溝通和互動是由此形成的,而不是企圖成為人類。 Capital One的Eno機器人采取了類似的方法,并且小心翼翼地保持性別中立。通過使你的機器人明顯像機器人一樣,也是在向用戶發(fā)出信號,他們不一定期望與人對話,這一點至關重要,因為當你考慮到今天的人工智能在其核心領域?qū)I(yè)知識之外進行對話的時候,通常表現(xiàn)十分掙扎。
然而,即使是“機器人”方法也有其自身的問題。隱性偏見很容易延續(xù),特別是考慮到“純粹機器人”仍然受到人類創(chuàng)造的框架的支撐。這種身份也很難在基于語音的交互中維持,因為語音更可能被編碼為性別和文化標記,而不是文本。
剝離機器人身份
至少在理論上,“機器人”身份剝奪了明顯的性別和文化偏見。但我們可以更進一步,從機器人中剝離身份和個性。
我們?yōu)槭裁匆@樣做?如今大多數(shù)機器人都以精簡的方式解決問題。灌輸一個具有豐富個性且會機智反擊的機器人,實際上可以產(chǎn)生相反的效果:它會產(chǎn)生摩擦。
想想你與在線聊天機器人互動的時候。前幾條消息通常是介紹性的。刪除此序言并提示用戶只需將問題鍵入框中,實際上是一種更簡單的方法。盡管有“聊天機器人”這個名字,但用戶并不需要聊天。他們是來解決問題的!
一個新的圖靈測試
雖然個性可以幫助建立對數(shù)字助理的信任,但是一次性互動不需要相同水平的信任。在這種情況下,一個超人類機器人實際上正在解決錯誤的問題:它專注于移情而不是交互本身的需求和背景。在方便至上的時候,個性應該退居二線。
同樣,高度個人化或敏感的互動也可能受益于低個性機器人的使用。如果他們不覺得自己受到評判,那么就更有可能自由而誠實地說話 —— 機器不會批判誰。輸入風格也很重要。由于缺乏音調(diào),可以感覺到文本比語音更公正。雖然音調(diào)變化在某些交互中是有益的,但在其它交互中,錯誤的音調(diào)可能會比沒有更糟糕。
具有“個性”的機器人也是公司及其價值觀的精確寫照,而這正是人類員工所不具備的。它的動機、個性特征和行為都是由設計所塑造的,消費者可以很容易地將機器人視為品牌的延伸。如果出現(xiàn)偏見或不良行為,這可能會產(chǎn)生聲譽后果。另一方面,一個沒有個性的機器人可能帶來的風險也相應較低。
回歸本源
隨著數(shù)字助理的制造者試圖找到讓他們的機器人更能反映當今世界的方法,也許答案很簡單。
通過讓機器人僅僅成為機器人,我們消除了嵌入刻板印象的風險,并消除了因我們自己的偏見而產(chǎn)生的失誤。 當我們把機器人回歸本源時,我們所擔心的只是解決手頭的任務——一如既往地解決數(shù)據(jù)問題。