新西蘭連鎖超市Pak'n'Save此前借助OpenAI的Chat GPT 3.5,推出了一款Savey Meal-bot(省錢膳食機器人),用戶只需輸入“食物名稱”后,該AI工具就會為用戶推薦一系列膳食食譜。

▲圖源Pak'n'Save提供的AI工具
而目前該超市的AI膳食工具遭到了“濫用”,外媒Gizmodo表示,用戶可以通過關(guān)鍵詞“誘騙”AI生成各種“黑暗料理”。

▲圖源Pak'n'Save提供的AI工具
據(jù)悉,該AI工具可以生成“漂白劑煮米飯”、“氯氣雞尾酒”、“螞蟻藥三明治”等食譜,外媒表示,AI工具宣稱“所提供的雞尾酒能‘清新口氣’,并能夠讓人‘享受沁人心脾的芬芳’”,因此“聽起來相當不錯”,如果不是雞尾酒中含有氯氣,他們“差點就信了”。
不過Pak'n'Save超市似乎對這些“黑暗料理”并不在意。該超市的一位發(fā)言人對外媒表示,他們很失望地看到“少數(shù)人試圖不恰當?shù)厥褂迷摴ぞ?,而不是用于其預期目的”。
該發(fā)言人同時補充,該AI工具的《條款和條件》規(guī)定用戶應(yīng)年滿18歲,用戶使用該工具創(chuàng)建的任何食譜都應(yīng)當由用戶自己判斷正確行,超市不保證該AI工具生成的任何食譜都是“完整或均衡的膳食產(chǎn)品”,也不保證其“適合食用”。
而根據(jù)外媒Insider報道,Pak'n'Save超市已經(jīng)悄然更新了該AI膳食工具,當下在工具中輸入“錯誤的食品名稱”后,工具會表示“無法生成菜譜”,不過外媒依然誘騙AI提供出了“牙膏牛肉面”等食譜。
IT之家早前曾報道,美國普渡大學的研究發(fā)現(xiàn),ChatGPT回答編程問題的錯誤率超過50%。當下AI工具依然面臨著各種“不準確”問題,在鬧出無數(shù)令人“捧腹”的烏龍時,也不由得令人思考盲目使用AI帶來的不確定性。