哥倫比亞的一名法官使用ChatGPT做出了法院裁決,這顯然是第一次在人工智能文本生成器的幫助下做出法律裁決--或者至少是我們第一次知道。根據(jù)2023年1月30日的一份法庭文件,主持卡塔赫納市第一巡回法庭的胡安-曼努埃爾-帕迪利亞-加西亞法官說(shuō),他用人工智能工具提出了有關(guān)該案件的法律問(wèn)題,并將其答復(fù)納入了他的裁決。

"這個(gè)決定的論據(jù)將根據(jù)人工智能(AI)的使用來(lái)確定,"加西亞在決定中寫(xiě)道,"因此,我們進(jìn)入了這些程序,并提出的部分法律問(wèn)題。"
"包括這些人工智能產(chǎn)生的文本的目的絕不是要取代法官的決定,"他補(bǔ)充說(shuō)。"我們真正追求的是在證實(shí)人工智能提供的信息后優(yōu)化起草判決書(shū)的時(shí)間。"
該案件涉及與一家醫(yī)療保險(xiǎn)公司的爭(zhēng)議,即一名自閉癥兒童是否應(yīng)獲得醫(yī)療保障。根據(jù)法庭文件,輸入人工智能工具的法律問(wèn)題包括:"自閉癥未成年人是否可以免于支付其治療費(fèi)用?"和"憲法法院的判例是否在類(lèi)似案件中做出過(guò)有利的裁決?"
加西亞在裁決中包括了聊天機(jī)器人的全部回答,這顯然是有法官第一次承認(rèn)這樣做。法官還在判詞中寫(xiě)入了他自己對(duì)適用的法律先例的見(jiàn)解,并體積人工智能被用來(lái)"擴(kuò)展所通過(guò)的決定的論點(diǎn)"。在詳細(xì)介紹了與大赦國(guó)際的交流后,法官隨后采用了大赦國(guó)際的答復(fù)和他自己的法律論據(jù)作為其決定的理由。
哥倫比亞法律并不禁止在法庭裁決中使用人工智能,但像ChatGPT這樣的系統(tǒng)以給出有偏見(jiàn)的、歧視性的、或純粹錯(cuò)誤的答案而聞名。這是因?yàn)檎Z(yǔ)言模型對(duì)文本沒(méi)有實(shí)際的"理解",它只是根據(jù)用于訓(xùn)練系統(tǒng)的數(shù)百萬(wàn)個(gè)例子的概率來(lái)合成句子。
ChatGPT的創(chuàng)建者OpenAI已經(jīng)實(shí)施了過(guò)濾器,以消除一些更有問(wèn)題的回應(yīng)。但開(kāi)發(fā)者警告說(shuō),該工具仍然有很大的局限性,不應(yīng)該被用來(lái)做重要的決策。
雖然本案顯然是法官首次承認(rèn)使用ChatGPT這樣的人工智能文本生成器,但一些法院已經(jīng)開(kāi)始使用自動(dòng)決策工具來(lái)決定量刑或刑事被告是否被保釋?zhuān)@是具有爭(zhēng)議性的。這些系統(tǒng)在法院的使用受到了人工智能倫理學(xué)家的嚴(yán)厲批評(píng),他們指出,這些系統(tǒng)經(jīng)常強(qiáng)化種族主義和性別歧視的陳規(guī)定型觀念,并放大了預(yù)先存在的不平等形式。
盡管哥倫比亞法院的文件表明,人工智能主要用于加快起草文書(shū),而且其反應(yīng)經(jīng)過(guò)了事實(shí)核查,但這很可能是一個(gè)跡象,表明更多的事情正在發(fā)生。