據(jù)報道,英國倫敦大學(xué)、謝菲爾德大學(xué)以及美國賓夕法尼亞大學(xué)的研究人員宣稱,AI(人工智能)系統(tǒng)成功預(yù)測了歐洲人權(quán)法庭(European Court of Human Rights )數(shù)百起人權(quán)案件的判決結(jié)果,準(zhǔn)確率高達(dá)79%。



AI成功預(yù)測數(shù)百起人權(quán)案判決結(jié)果,準(zhǔn)確率高達(dá)79%
目前在新聞、法律以及會計行業(yè),AI的應(yīng)用日益增多。
但批評家認(rèn)為,AI無法理解案件之間的細(xì)微差別。研究人員承認(rèn),這項研究并非意味著AI將終結(jié)法官或律師行業(yè)。
領(lǐng)導(dǎo)研究的Nikolaos Aletras說:“目前有關(guān)AI的炒作很多,但我們還沒有看到其近期有取代法官或律師的可能。不過我們認(rèn)為,AI系統(tǒng)可以被用于快速確定案情模式,而且能更快地給出特定結(jié)果。它也可以成為有價值的工具,凸顯哪些案件最有可能違反了歐洲人權(quán)公約。”
研究人員研究了與歐洲人權(quán)公約三大條款相關(guān)的584起案件,包括第三條款(涉嫌虐待或侮辱人格待遇)、第六條款(公平審判權(quán))以及第八條款(尊重私人生活)等。選擇這些案例是因為,它們都屬于基本人權(quán)案例,同時也有大量相關(guān)數(shù)據(jù)可用。
AI智能系統(tǒng)的算法可以在文本中尋找模式,并標(biāo)注出每起案件是否違反歐洲人權(quán)公約。為了預(yù)防存在偏見或誤解,研究團(tuán)隊為AI選擇了違反公約和未違反公約數(shù)量相等的案件。

研究人員稱:“在理想情況下,我們應(yīng)該利用法院文件測試和改進(jìn)算法,而非通過已經(jīng)發(fā)布的判決測試,但我們無法獲取法庭數(shù)據(jù)。”當(dāng)有2個類似案件時,算法往往會判斷失誤。這顯示,AI平臺還無法檢測出法律的細(xì)微精妙之處。
但是越來越多的律師事務(wù)所正應(yīng)用AI,幫助篩選大量的法律數(shù)據(jù),其中法律AI系統(tǒng)所借用的是IBM超級電腦Waston的力量。
數(shù)據(jù)科學(xué)咨詢公司Tessella分析師Matt Jones表示:“這個研究項目擁有巨大潛力,因為通過自動化某些枯燥乏味的任務(wù)可節(jié)省法律案件中大量時間,同時可幫助增加人們成功的機(jī)會。但AI目前只能作為法律決策的工具。”
Jones還稱,類似系統(tǒng)還無法理解案件之間的細(xì)微差別。AI可能十分善于推理,但如果沒有更廣泛的語境、沒有對其進(jìn)行數(shù)據(jù)和經(jīng)驗方面的訓(xùn)練,這些推測可能不夠準(zhǔn)確。而且在很多案件中,這樣做都很危險。