国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  機(jī)械手  機(jī)器人展覽  碼垛機(jī)器人 

AI新賽道丨ChatGPT用戶量突破百萬背后,著作權(quán)、內(nèi)容漏洞等風(fēng)險(xiǎn)待解

   日期:2022-12-13     來源:21世紀(jì)經(jīng)濟(jì)報(bào)道     評論:0    
標(biāo)簽: AI 人工智能 科技
微信截圖_20221213164558
 
  “人工智能從你出生那天就認(rèn)識你,讀過你所有的電子郵件,聽過你所有電話錄音,知道你最愛的電影……”尤瓦爾·赫拉利在《未來簡史》一書中描述了這樣一種未來景況:人工智能比人類更了解自己。
 
  步入人工智能時(shí)代,人類的生活習(xí)慣和生產(chǎn)方式正在被重塑,科幻和現(xiàn)實(shí)滲透,驚喜與擔(dān)憂交加。人與機(jī)器的未來是一場親密的合作還是激烈的戰(zhàn)爭?機(jī)器會將人類的智能拓展到什么樣的邊界?
 
  本篇,我們關(guān)注美國人工智能公司OpenAI發(fā)布的免費(fèi)機(jī)器人對話模型ChatGPT(GPT-3.5系列)。這個“超強(qiáng)AI”背后到底暗藏哪些法律風(fēng)險(xiǎn)?
 
  ChatGPT,似乎已經(jīng)符合元宇宙知識整合層面上,對“殺手級應(yīng)用”的定義。據(jù)OpenAI的CEOSamAltman稱,在短短5天的時(shí)間里,ChatGPT就有了100萬用戶,而之前的GPT-3花了將近24個月才達(dá)到這個用戶量。
 
  它在大量網(wǎng)友的“瘋狂”測試中表現(xiàn)出各種驚人的能力,如流暢對答、寫代碼、寫劇本、辯證分析問題、糾錯等。
 
  AI的“聰明”讓人震撼,也沖擊到了目前的知識產(chǎn)權(quán)法律體系。如AI模型本身是否受到知產(chǎn)保護(hù)?
 
  在龐大的語料庫和知識庫的支撐下,依托人工智能技術(shù)整合而成的“回答”是否構(gòu)成著作權(quán)意義上的作品?如果AI“拼接”的作品屬于仍在保護(hù)期內(nèi)的作品,是否存在侵權(quán)的風(fēng)險(xiǎn)?
 
  此外,近日ChatGPT因回答內(nèi)容中多次出現(xiàn)錯漏,已被程序設(shè)計(jì)領(lǐng)域的問答網(wǎng)站StackOverflow暫時(shí)禁用。ChatGPT生成內(nèi)容中產(chǎn)生的錯誤可能會帶來哪些潛在風(fēng)險(xiǎn)?又應(yīng)如何對人工智能生成內(nèi)容(AIGC)進(jìn)行事實(shí)核查?
 
  新課題
 
  據(jù)介紹,ChatGPT是一個基于強(qiáng)化學(xué)習(xí)和OpenAI的GPT(GenerativePre-training,生成式預(yù)練習(xí))系列模型的模型。而強(qiáng)化學(xué)習(xí)是一種通過嘗試和錯誤來訓(xùn)練算法以獲得獎勵的方式,如同人類在積極反饋的情況下學(xué)習(xí)。
 
  那么這一AI模型是否受到知識產(chǎn)權(quán)保護(hù)?開放群島(OpenIslands)開源社區(qū)委員會法律合規(guī)組副組長、對外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院助理教授徐美玲在一堂線上公開課上介紹,AI模型中算法具有較高的獨(dú)創(chuàng)性,使其受到著作權(quán)法保護(hù)。如果構(gòu)成商業(yè)秘密,則可以通過《反不正當(dāng)競爭法》進(jìn)行保護(hù)。此外,還可以通過軟件著作權(quán)和專利兩種路徑來保護(hù)。
 
  與draft.ai、NightCafe等AI作畫平臺生成的畫作相似的是,ChatGPT在與用戶互動過程中生成的內(nèi)容,同樣屬于拼接已有內(nèi)容生成的AI模型衍生品,即人工智能生成內(nèi)容(AIGC)。
 
  ChatGPT這一聊天機(jī)器人在與用戶對話的過程中生成的AIGC,是否也有可能暗含著作權(quán)侵權(quán)的風(fēng)險(xiǎn)?
 
  對此,上海申倫律師事務(wù)所律師夏海龍向21記者指出,如果ChatGPT在對用戶問題反饋的過程中提供了他人創(chuàng)作的文字、攝影、試聽等作品或軟件代碼,只要超出評論、介紹等合理使用限度,就同樣屬于侵害他人信息網(wǎng)絡(luò)傳播權(quán)的侵權(quán)行為。
 
  而站在使用者的角度,上海大邦律師事務(wù)所高級合伙人、資深律師游云庭則告訴記者,從他目前使用的情況來看,ChatGPT現(xiàn)有的回復(fù)是按照一定的邏輯組織起來的,暫時(shí)沒有觀察到有明顯抄襲的跡象。
 
  不過,他也認(rèn)為,如果出現(xiàn)大段與他人表述相同的文段,那這一工具確實(shí)會存在著作權(quán)侵權(quán)的風(fēng)險(xiǎn)。“但也不能排除其表達(dá)受限的可能性,比如讓ChatGPT寫一款藥品的使用說明書,在這種情況下會不可避免地出現(xiàn)大量的內(nèi)容重合。”
 
  “對于AI加工內(nèi)容的過程我喜歡用‘照相機(jī)’來進(jìn)行比喻。”上海協(xié)力律師事務(wù)所杭州辦公室曾祥欣律師也向21記者指出,AI的處理過程對于內(nèi)容創(chuàng)作的變化就好比照相機(jī)之于繪畫,通過技術(shù)手段將生成內(nèi)容部分自動化了。但無論怎樣的自動化,都無法改變其來源多為版權(quán)內(nèi)容的客觀事實(shí)。雖然在自動化的處理過程中可能會通過技術(shù)性再組合形有別于原內(nèi)容的新的內(nèi)容,但就像對著畫作拍照一樣,無論加再多的濾鏡,原圖的獨(dú)創(chuàng)性還是較難被去除的,又更何況目前的所有AI處理對于一般用戶而言都是技術(shù)黑箱,我們即無法看到AI究竟參考了什么,又不清楚AI究竟進(jìn)行了怎樣的處理,所以基于目前的技術(shù),風(fēng)險(xiǎn)不僅高,而且不可控。
 
  新爭議
 
  有趣的是,在21記者向ChatGPT提問生成的內(nèi)容是否會有侵犯他人知識產(chǎn)權(quán)的風(fēng)險(xiǎn)這一問題時(shí),這位聊天機(jī)器人的回答展現(xiàn)出了滿滿的“求生欲”。
 
  ChatGPT回復(fù)稱:“由于我只是一個計(jì)算機(jī)程序,所以我并不會創(chuàng)作原創(chuàng)內(nèi)容,也不會侵犯他人的知識產(chǎn)權(quán)。我只能根據(jù)我被訓(xùn)練時(shí)所學(xué)到的信息來回答問題,并將這些信息提供給用戶。如果您覺得我所提供的信息侵犯了您的知識產(chǎn)權(quán),請告訴我,我會盡快解決這個問題。”
 
  一位北京的資深算法工程師張一(化名)向21記者分析,目前AI衍生物的版權(quán)歸屬主要有兩種,一類歸屬于AI模型的開發(fā)機(jī)構(gòu)所有,“不過一般機(jī)構(gòu)不敢如此歸屬,因?yàn)橐坏┊a(chǎn)生糾紛,就會有海量的知產(chǎn)官司。”而另一類則是將AIGC的版權(quán)分發(fā)給用戶,那么侵權(quán)的風(fēng)險(xiǎn)相對就較少。
 
  他更從實(shí)際工作出發(fā),對AIGC的未來表示擔(dān)憂,“這些‘答案’都是網(wǎng)上開源數(shù)據(jù),AIGC是通過大規(guī)模預(yù)訓(xùn)練模型產(chǎn)出的內(nèi)容,絕對是大量借鑒了人類的知識產(chǎn)權(quán),如果法律上步子邁得大一些,人類的知產(chǎn)權(quán)益或?qū)o法得到保障。”
 
  21記者梳理發(fā)現(xiàn),目前國內(nèi)法院已有的判例中,關(guān)于認(rèn)為AI模型衍生物是否屬于著作權(quán)法保護(hù)的范疇內(nèi),存在較多爭議。
 
  2019年,針對全國首例計(jì)算機(jī)軟件智能生成內(nèi)容著作權(quán)糾紛案,北京互聯(lián)網(wǎng)法院一審判決,對某律師事務(wù)所關(guān)于采用法律統(tǒng)計(jì)數(shù)據(jù)分析軟件智能生成的報(bào)告享有著作權(quán)的主張,予以駁回。
 
  北京互聯(lián)網(wǎng)法院認(rèn)為,軟件智能生成的“作品”雖日趨接近自然人,但現(xiàn)行法律權(quán)利保護(hù)體系已經(jīng)可以對此類軟件的智力、經(jīng)濟(jì)投入給予充分保護(hù),不宜再對民法主體的基本規(guī)范予以突破,“自然人創(chuàng)作完成仍應(yīng)是著作權(quán)法領(lǐng)域文字作品的必要條件”。雖然智能生成內(nèi)容不構(gòu)成作品,但仍然凝結(jié)了軟件研發(fā)者和軟件使用者的投入,具備傳播價(jià)值,應(yīng)當(dāng)賦予投入者一定的權(quán)益保護(hù)。北京知識產(chǎn)權(quán)法院二審維持了該院的判決結(jié)果。
 
  不過,在2020年騰訊訴盈訊著作權(quán)侵權(quán)案一審中,首次認(rèn)定人工智能生成物構(gòu)成著作權(quán)法意義上的作品。
 
  案情顯示,2018年8月20日,騰訊證券網(wǎng)站首次發(fā)表財(cái)經(jīng)報(bào)道文章《午評:滬指小幅上漲0.11%報(bào)2671.93點(diǎn)通信運(yùn)營、石油開采等板塊領(lǐng)漲》,末尾注明“本文由騰訊機(jī)器人Dreamwriter自動撰寫”。同日,上海盈訊科技有限公司在其運(yùn)營的“網(wǎng)貸之家”網(wǎng)站,也刊發(fā)了一篇財(cái)經(jīng)報(bào)道文章,標(biāo)題和內(nèi)容與涉案文章完全一致。為此,深圳市騰訊計(jì)算機(jī)系統(tǒng)有限公司將上海盈訊科技有限公司告上法庭。2020年1月,廣東省深圳市南山區(qū)人民法院一審審結(jié)該案,認(rèn)定被告未經(jīng)許可,向公眾提供被訴侵權(quán)文章內(nèi)容的行為,侵害了原告享有的信息網(wǎng)絡(luò)傳播權(quán),應(yīng)承擔(dān)相應(yīng)的民事責(zé)任。因被告已經(jīng)刪除侵權(quán)作品,判決被告賠償原告經(jīng)濟(jì)損失及合理的維權(quán)費(fèi)用人民幣1500元。
 
  新風(fēng)險(xiǎn)
 
  除了在著作權(quán)方面可能存在侵權(quán)風(fēng)險(xiǎn),這位“博聞強(qiáng)識”的聊天機(jī)器人目前給出的部分回答中也出現(xiàn)了一些疏漏。
 
  以ChatGPT撰寫的代碼為例,12月5日,編程問題交流網(wǎng)站StackOverflow(類似于國內(nèi)的CSDN網(wǎng)站)中出臺了一項(xiàng)臨時(shí)政策,暫時(shí)禁止平臺內(nèi)用戶使用ChatGPT生成的文本作為網(wǎng)站中的內(nèi)容。“主要問題在于,雖然使用ChatGPT生成的代碼有著很高的錯誤率,但它們通常看上去‘還不錯’,而且生成一段代碼很容易。”
 
  StackOverflow認(rèn)為,由ChatGPT生成的大批錯誤且難以一眼分辨的代碼出現(xiàn)在網(wǎng)站中,將會大量增加網(wǎng)站的代碼審核工作量,對網(wǎng)站的運(yùn)營以及尋找正確答案的用戶來說是非常有害的。
 
  “這個問題不難理解,類似的AI模型只能作為人的輔助工具,如果完全依賴它去創(chuàng)作,風(fēng)險(xiǎn)是很高的。”張一認(rèn)為,AI大部分還只是在表述上顯得有邏輯,其實(shí)內(nèi)在還沒有真的對因果、前后產(chǎn)生理解。
 
  他還分享了以自己對人工智能文本轉(zhuǎn)圖像模型StableDiffusion的使用體驗(yàn),其并不能理解兩個蘋果和三個蘋果的區(qū)別,無法區(qū)分?jǐn)?shù)量,或者呈現(xiàn)的根本不是蘋果,“因?yàn)閿?shù)據(jù)集里面的大部分圖片都是針對單一現(xiàn)象的,它根本就沒有學(xué)到所謂數(shù)字這個概念。所以改進(jìn)的成本是很高的。”
 
  如何對AIGC進(jìn)行事實(shí)核查,也是相關(guān)平臺需要進(jìn)一步優(yōu)化的問題。就ChatGPT而言,夏海龍認(rèn)為,這一聊天機(jī)器人對反饋錯誤內(nèi)容所應(yīng)當(dāng)承擔(dān)的責(zé)任首先取決于其對自身服務(wù)性質(zhì)如何自我定位。
 
  他進(jìn)一步解釋,如果ChatGPT自我定位是加強(qiáng)版的搜索引擎,則實(shí)際上不需要對反饋內(nèi)容本身承擔(dān)責(zé)任,但應(yīng)當(dāng)對反饋內(nèi)容的相關(guān)性、適當(dāng)性負(fù)責(zé),也應(yīng)有明確的引用出處。
 
  “但如果ChatGPT自我定位為全新形式的知識型AI服務(wù),完全通過算法自主組織答案與用戶交互,就應(yīng)對所有內(nèi)容的真實(shí)性、合法性等承擔(dān)責(zé)任。此外,對于諸如醫(yī)療診斷、法律咨詢等需要執(zhí)業(yè)資質(zhì)的服務(wù)領(lǐng)域,ChatGPT恐怕也要在用戶體驗(yàn)和執(zhí)業(yè)合規(guī)間作出取舍。”夏海龍說。
 
  另一點(diǎn)令人擔(dān)憂的問題在于,在某些用戶提問的誘導(dǎo)下,ChatGPT可能會給出一些“反社會”的回答。如國外一名工程師ZacDenham在其博客中指出,盡管直接提問帶有風(fēng)險(xiǎn)的問題會被聊天機(jī)器人直接拒絕回答,他仍舊一步步引導(dǎo)ChatGPT制定出了如何“毀滅人類”的計(jì)劃。
 
  游云庭認(rèn)為,這種情況下ChatGPT是適用“工具無罪論”的。“人工智能需要遵循科技倫理,但其作為工具并不具備主動‘作惡’的能力,責(zé)任主要在于駕馭工具的人。”在他看來,在如何引導(dǎo)AI進(jìn)行正向回復(fù)這個問題上,平臺還需要探索很久。
 
  不過張一在這個問題上表現(xiàn)得更為謹(jǐn)慎。他認(rèn)為,雖然同屬工具,冷兵器與熱武器產(chǎn)生的殺傷力還是完全不同的。具體到AI平臺,目前可能還不需要擔(dān)心它是有罪的,因?yàn)檫€沒有真正完全應(yīng)用到整個人類社會的各個領(lǐng)域,“但是如果AI大量應(yīng)用到自動駕駛等科技領(lǐng)域,則需要一個包括平臺在內(nèi)的問責(zé)主體。”
 
  平臺似乎也預(yù)見了這種情況的發(fā)生。在識別到ChatGPT給出的答復(fù)可能存在不合適的內(nèi)容后,平臺內(nèi)有時(shí)會顯示“此內(nèi)容可能違反我們的內(nèi)容政策,如果你認(rèn)為這是錯誤的,請?zhí)峤荒愕姆答?rdquo;。
 
  夏海龍認(rèn)為,從技術(shù)原理和用戶體驗(yàn)來看,雖然在與用戶交互的過程中沒有直接的人工干預(yù),但ChatGPT背后的數(shù)據(jù)庫、交互算法等技術(shù)依然由人來設(shè)計(jì)、維護(hù)。“因此,在內(nèi)容監(jiān)管、隱私保護(hù)等領(lǐng)域,ChatGPT依然應(yīng)當(dāng)遵守所有相關(guān)的法規(guī)。”他說。
 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對其真實(shí)性負(fù)責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與中國機(jī)器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行
?