施普林格·自然旗下開(kāi)放獲取學(xué)術(shù)期刊《科學(xué)報(bào)告》最新發(fā)表一篇人工智能(AI)研究論文指出,大型語(yǔ)言模型(LLM)AI對(duì)話機(jī)器人在創(chuàng)造性思維任務(wù)上或能超越大部分的一般人類,該任務(wù)要求受試者想出日常用品的替代用途(發(fā)散性思維的一個(gè)例子)。不過(guò),該研究也顯示,得分最高的人類受試者依然能超過(guò)對(duì)話機(jī)器人的最佳答案。
該論文指出,發(fā)散性思維通常是指與創(chuàng)造性相關(guān)的一類思維過(guò)程,需要為特定任務(wù)想出各種不同創(chuàng)意或?qū)Σ摺0l(fā)散性思維一般通過(guò)替代用途任務(wù)(Alternate Uses Task,AUT)進(jìn)行評(píng)估,受試者被要求在短時(shí)間內(nèi)想出某個(gè)日常用品的其他用途,越多越好。受試者的回答從四個(gè)類別進(jìn)行打分:流利度、靈活性、原創(chuàng)性和精細(xì)度。
論文第一作者、芬蘭圖爾庫(kù)大學(xué)Mika Koivisto和通訊作者、挪威卑爾根大學(xué)與斯塔萬(wàn)格大學(xué)Simone Grassini兩人合作,利用人工智能大模型ChatGPT3、ChatGPT4和Copy.Ai完成繩子、盒子、鉛筆、蠟燭4個(gè)物品的AUT,并對(duì)其答案進(jìn)行比較。他們通過(guò)語(yǔ)義距離(回答與物品原始用途的相關(guān)度)和創(chuàng)造性給回答的原創(chuàng)性打分,并用一個(gè)計(jì)算方法在0-2的范圍里量化語(yǔ)義距離,同時(shí)讓不知道作答者身份的人類打分者在1-5的范圍里客觀評(píng)價(jià)創(chuàng)造性。
該研究結(jié)果顯示,平均而言,對(duì)話機(jī)器人的回答在語(yǔ)義距離(0.95相對(duì)于0.91)和創(chuàng)造性(2.91相對(duì)于2.47)的得分上顯著高于人類的回答。人類回答在這兩項(xiàng)的得分差距更大——最低分遠(yuǎn)低于AI的回答,但最高分普遍比AI高。最佳人類回答在8個(gè)評(píng)分項(xiàng)中的7項(xiàng)都超過(guò)了所有對(duì)話機(jī)器人的最佳回答。
論文作者總結(jié)認(rèn)為,這項(xiàng)研究結(jié)果表明,當(dāng)前AI對(duì)話機(jī)器人想創(chuàng)意的能力至少已與一般人類相當(dāng)。他們也指出,本次研究只評(píng)價(jià)了涉及創(chuàng)造性評(píng)估的單項(xiàng)任務(wù)的表現(xiàn),今后的研究或能探索如何將AI融入創(chuàng)造性過(guò)程來(lái)提升人類表現(xiàn)。(完)