IT之家5月2日消息,微軟的人工智能(AI)倫理與社會團隊在2023年3月被解散后,引發(fā)了外界的質(zhì)疑和批評。在AI領(lǐng)域頻發(fā)的丑聞和爭議中,微軟如何保證其未來的AI產(chǎn)品能夠被負(fù)責(zé)任地開發(fā)和使用?近日,微軟的首席負(fù)責(zé)任AI官Natasha Crampton在微軟的“議題”博客上發(fā)表了一篇文章,解釋了微軟解散AI倫理團隊的原因和新的AI管理策略。

Crampton表示,解散AI倫理團隊是因為“單靠一個團隊來負(fù)責(zé)AI的倫理或責(zé)任是不夠的。”她說,微軟采取了與其隱私、安全和無障礙團隊相同的方法,即“將負(fù)責(zé)任的AI融入到整個公司”。這意味著微軟在每個核心業(yè)務(wù)部門都有高級人員“負(fù)責(zé)推動負(fù)責(zé)任的AI”,以及“一個由不同技能和角色組成的負(fù)責(zé)任的AI‘擁護者’網(wǎng)絡(luò),以實現(xiàn)更頻繁、更直接的溝通。”
此外,Crampton還透露,微軟目前有近350人從事負(fù)責(zé)任的AI工作,其中有129人是全職專職,其余的人則將負(fù)責(zé)任的AI作為他們工作的核心部分。在解散AI倫理團隊后,Crampton指出,一些團隊成員隨后被分配到了公司各個部門。然而,該團隊的七名成員也在2023年初微軟裁員1萬人的行動中被解雇。
近幾個月來,AI領(lǐng)域幾乎沒有擺脫過丑聞和爭議,正是這些擔(dān)憂導(dǎo)致了外界對微軟解散AI倫理團隊的反對。如果微軟缺乏一個專門的團隊來幫助指導(dǎo)其AI產(chǎn)品朝著負(fù)責(zé)任的方向發(fā)展,人們認(rèn)為,其將難以遏制其Bing聊天機器人所出現(xiàn)的各種濫用行為。微軟最新的博客文章無疑是試圖緩解公眾對這一問題的擔(dān)憂,微軟并沒有完全放棄其AI努力,而是試圖確保公司各個團隊都能與負(fù)責(zé)任AI方面的專家保持定期聯(lián)系。
然而,毫無疑問,關(guān)閉其AI倫理與社會團隊并沒有給微軟帶來好名聲,在這個話題上讓公眾放心還有很長的路要走。事實上,就連微軟自己也認(rèn)為ChatGPT應(yīng)該受到監(jiān)管。IT之家此前報道,就在昨天,“AI教父”Geoffrey Hinton離開了谷歌,并表示他對AI擴張的速度和方向感到非常不安。微軟可能并沒有忽視有關(guān)AI倫理開發(fā)方面的擔(dān)憂,但其新策略是否正確,還有待觀察和驗證。