據(jù)彭博社昨晚報(bào)道,谷歌和Discord共同邀請自家AI聊天機(jī)器人Bard的忠實(shí)用戶,設(shè)立一個(gè)聊天室。其中,Bard的產(chǎn)品經(jīng)理、設(shè)計(jì)師和工程師在聊天室內(nèi)討論了AI的有效性和實(shí)用性,但也有一些人開始提出質(zhì)疑。

Discord上Bard社區(qū)的兩名參與者向彭博社分享了7月-10月期間聊天室內(nèi)的討論細(xì)節(jié)。Bard的高級產(chǎn)品經(jīng)理Dominik Rabiej在討論中表示,自己“不信任”大語言模型生成的回復(fù)答案,并建議人們僅在“創(chuàng)意”“頭腦風(fēng)暴”等方面使用Bard。Rabiej還表示,將Bard用于編程“也是一個(gè)不錯(cuò)的選擇”——因?yàn)槿藗儾豢杀苊獾匾?yàn)證代碼是否有效。
此外,Rabiej還在本月強(qiáng)調(diào)了Bard中新增的“仔細(xì)檢查回復(fù)”按鈕的重要性。據(jù)稱,該功能會用橙色來突出顯示“可能不正確的”內(nèi)容。他還重申,Bard并無法真正理解自己獲取的文本,只是根據(jù)用戶的提示用更多文本進(jìn)行回復(fù)。“請記住,Bard和任何大模型一樣都是生成式的——它不是在幫你查資料或做總結(jié),而是在生成文本。”
這名產(chǎn)品經(jīng)理曾在7月份的一次聊天中直言道,除非(用戶自己)能獨(dú)立驗(yàn)證,否則不要相信大語言模型的輸出結(jié)果。“我們也想讓它達(dá)到你們的預(yù)期,但它還沒有。”
另一位產(chǎn)品經(jīng)理Warkentin也在討論中寫道,“人性化的改進(jìn)至關(guān)重要,只有這樣Bard才能成為一款適合所有人的產(chǎn)品。否則,用戶就沒有能力來評判產(chǎn)品的功能,我認(rèn)為這將是一個(gè)巨大的錯(cuò)誤。”“我們不需要在象牙塔中的產(chǎn)品,而是所有人都能受用的產(chǎn)品!”
IT之家此前報(bào)道,谷歌今年7月擴(kuò)大部署B(yǎng)ard AI工具時(shí),加入了“分享對話鏈接”的功能。用戶可以將他和Bard的對話以網(wǎng)頁鏈接形式導(dǎo)出,分享給他人,讓別人繼續(xù)和Bard展開對話。
而X平臺一名分析顧問Gagan Ghotra發(fā)現(xiàn)了這一漏洞,谷歌錯(cuò)誤將部分用戶分享的鏈接,作為索引加入搜索結(jié)果中,從而導(dǎo)致了相關(guān)敏感信息外泄。
Gagan Ghotra據(jù)此警告用戶與不要在和Bard對話時(shí)分享任何“私密性內(nèi)容”,否則相關(guān)信息可能外泄。