據Venturebeat報道,在維也納舉行的“隱私周”大會上,我(本文作者、自由作家芭芭拉·昂德里塞克(Barbara Ondrisek))曾發(fā)表名為“聊談機器人的隱私與數據安全”演講。我想指出的是,人們應該審慎考慮與聊天機器人分享哪些數據,并關注與聊天機器人對話時數據被如何處理。這些消息應用本身、數據傳輸過程、自然語言處理(NLP)、機器學習工具、聊天機器人后端及其數據庫,都能保證安全嗎?

聊天機器人本身屬于一種服務,它能通過會話界面讓你與某種服務或公司互動。它屬于計算機程序中的計算機程序,可以與1個或多個人類用戶對話。聊天機器人有時候也被稱為虛擬助理或會話商務。當Facebook在其4月份中旬舉行的F8大會上宣布,他們將向聊天機器人開放Messenger平臺時,我渴望嘗試它們的API(應用程序接口)。為此,我在Facebook上創(chuàng)造了首批聊天機器人之一Mica, the Hipster Cat Bot,它絕對是奧地利首個Facebook Messenger和Skype聊天機器人。

然而,Facebook Messenger正被廣泛使用,但聊天機器人的成功卻引發(fā)問題:數據、消息應用隱私以及聊天機器人都能保證安全嗎?在使用消息應用過程中,我們通常都會分享個人數據。這些消息中含有許多隱私,消息應用供應商被期望應該確保用戶數據隱私。此外,假設用戶與聊天機器人所有者之間的對話在未經用戶同意下不會公開分享,那么平臺上的隱私安全如何保證?
在面臨廣泛互聯網監(jiān)控的現實中,我們需要安全而實用的手段,以確保在通過手機或電腦交流時的隱私安全。電子前沿基金會(EFF)推出了安全信息記分卡,以衡量“消息產品”的安全性。第一代的安全信息記分卡基于7個具體標準評估應用和工具安全性,包括消息在傳輸過程中是否被加密、代碼最近是否被審核過等。對于某類工具來說,通過這些標準是確保信息與隱私安全所必須的,但它們卻無法保證應用安全。因為安全是相當困難和復雜的,其有些方面很難衡量。
令人感到欣慰的是,大多數消息應用在傳輸信息過程中會加密信息。但有些應用,比如Kik或Skype,最近代碼沒有經過審核。有些消息應用會向獨立評論家公開他們的源代碼。EFF分析的大多數消息應用沒有辦法驗證聯系者的身份,只有Signal和WhatsApp提供這種功能。
有些消息應用使用端對端加密,比如Signal和WhatsApp,這意味著平臺服務器不會閱讀用戶信息內容。但有些消息應用向聊天機器人提供API,比如Telegram、Skype、Facebook以及Kik等。通常情況下,擁有聊天機器人的支持,這些平臺提供商和聊天機器人提供商可以看到未經加密的信息。唯一獲得EFF的A級安全評級的消息應用就是Signal,而像Skype和Kik等被廣泛使用的應用,評級都相當糟。
2016年,Viber也在自己的服務中心添加端對端加密,但當只有所有對話參與者都使用最新版本Viber時,它們的對話才被加密。谷歌最新AI消息應用Allo也受到類似批評,它默認關閉端對端加密功能。默認安全是理想的,但自然語言處理功能會受到影響。
與此同時,針對聊天機器人的下個主流平臺的競爭已經開始,Facebook、Skype以及Kik等都在競爭成為聊天機器人的重要生態(tài)系統(tǒng)。每個聊天機器人平臺都試圖提供易于集成聊天機器人的服務,以及最好的用戶體驗。paradox就是這類應用,它主要處理私人和兩人間對話,現在聊天機器人正進入這個領域。
聊天機器人正進入個人與隱私通信領域,我們看到數據傳輸控制權正從用戶轉移到消息應用供應商手中。Facebook經常因修改隱私政策而受到審查,包括其聊天應用Messenger。你可通過Messenger呼叫Uber、購買玩具或機票,甚至直接在Messenger內支付,但用戶的所有個人數據都暴露給Facebook。所有交易都被平臺服務器記錄下來,這些服務器監(jiān)督和記錄用戶與聊天機器人之間的通訊。
對于Facebook或谷歌來說,個人數據擁有非常高的價值,消息平臺最初并非專注于隱私而創(chuàng)建的。聊天機器人可以利用外部工具分析數據,以便適合自然語言處理和意圖理解。通常情況下,數據在發(fā)送給wit.ai、api.ai或IBM Watson等工具時并未加密,盡管其可通過HTTPS發(fā)送。這些基于云端的API處理用戶輸入以用于智能分析,可以分析你書寫的任何內容,特別是處理敏感數據,比如財務賬戶信息或密碼等。
通常情況下,聊天機器人不太了解它們的用戶,只知道名字和屏幕上的名字,可能還有點兒其他數據。而通過消息平臺的API,你的所有數據都被發(fā)送給機器人?;谀惆l(fā)送給它們的數據,聊天機器人非常容易就能創(chuàng)造出用于研究的用戶特征。舉例來說,情感分析可通過計算識別和分類文本表達的情緒,以便用于確定文本作者對特定主題或產品的態(tài)度,包括積極、消極以及中性態(tài)度等。同樣的擔憂也適用于其他與聊天機器人相關的工具,比如語音-文本轉換器、圖像識別應用、語言分析工具等。
但是也要考慮其他可能傾聽到你的對話的人。我的意思是,不僅僅聊天機器人開發(fā)者或項目經理。當前在聊天機器人和用戶之間的對話需要通過消息應用的服務器傳輸,為此Facebook或谷歌也可能聽到你與聊天機器人的全部對話。此外,聊天機器人通常會儲存語境數據,比如地理位置或相關信息等。這可能包括電話號碼或其他私人數據,沒人知道這些數據在被儲存到數據庫前是否加密。
人們都在嘗試與聊天機器人更多交流,特別是青少年或老人。研究顯示,老年人感到孤獨時,更多與Siri聊天。用戶也傾向于與那些似乎沒有傾聽能力的聊天機器人聊天。當約瑟夫·魏澤鮑姆(Joseph Weizenbaum)創(chuàng)造ELIZA時,當他走進房間時,他意識到有測試者感到羞愧。他說:“抱歉,我現在正與ELIZA聊天。”
另一個有趣的方面是,人們對機器人做出的情感反應。他們喜歡聊天機器人,并告訴它們這一點。或者他們憎恨它們,并開始使用污言穢語?;谶@些數據,你可以創(chuàng)建聊天機器人的人格特征。為此,當你與聊天機器人對話時,或你的數據透露給平臺時,請保持謹慎。