国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

人工智能:為什么憂慮

   日期:2016-04-01     來源:人民網(wǎng)    作者:LX     評(píng)論:0    
標(biāo)簽:
   圍棋人機(jī)大戰(zhàn)讓人工智能的話題熱度居高不下。每一次新進(jìn)展的橫空出世,都讓期待這項(xiàng)技術(shù)的人變得更樂觀,不過,人們對(duì)其影響力的顧慮也在明顯上升。越來越多的組織、機(jī)構(gòu)開始研究智能機(jī)器衍生的倫理問題。雖然人們無法保證今天的思考、策略完全有效,但在沒有作任何準(zhǔn)備的情況下,就必然無法將其控制。
 
  永恒的恐懼
 
  對(duì)于人工智能的憂慮,最早可以追溯到200年前。但這不是對(duì)一項(xiàng)技術(shù)的反思,而是展示了造物者與被造物之間的內(nèi)在關(guān)系。
 
  “亞當(dāng)”是英國19世紀(jì)女作家瑪麗·雪萊筆下作品《弗蘭肯斯坦》中的合成生命體,科學(xué)家弗蘭肯斯坦創(chuàng)造了他。亞當(dāng)天性善良,渴望感情,渴望受到尊重,但世界并沒有像他所期待的那樣接納他,他始終是個(gè)異類。
 
  于是,他被迫反抗,作出極端行為,脅迫弗蘭肯斯坦為他造一個(gè)“夏娃”。弗蘭肯斯坦擔(dān)心“亞當(dāng)”和“夏娃”會(huì)衍生出無數(shù)新的怪物,在即將成功時(shí)將“夏娃”銷毀。“亞當(dāng)”開始了復(fù)仇殺戮,弗蘭肯斯坦只能與之決斗。
 
  《弗蘭肯斯坦》在多年以后,依然能夠成為英美文化的熱點(diǎn)。上海交通大學(xué)科學(xué)史與科學(xué)文化研究院院長江曉原認(rèn)為,這是源于人類與被造物之間天然的永恒恐懼與不安。“歷史證明,即便同是人類,異族之間想要獲得融合,也需付出巨大代價(jià)。”這可以解釋為什么人類與人工智能的實(shí)現(xiàn)越近,恐懼與不安會(huì)更深。
 
  不過,科學(xué)家一向反對(duì)將人工智能過度擬人化,他們認(rèn)為目前沒有確切證據(jù)證明它們?cè)谖磥頃?huì)帶來像作品中的災(zāi)難性后果。
 
  倫理學(xué)家、哲學(xué)家則堅(jiān)持對(duì)人工智能的憂慮,至少可以理解為對(duì)科學(xué)技術(shù)的人文關(guān)懷。江曉原說:“要打消這個(gè)擔(dān)憂,就必須論證‘人工智能不會(huì)危害人類’或者‘人工智能的危害是可控的’。”
 
  人造機(jī)器會(huì)不會(huì)超越人
 
  對(duì)于人工智能的警惕最初的焦點(diǎn)在于“人造的機(jī)器會(huì)超越人”。庫茲韋爾在《奇點(diǎn)臨近》中表示,一旦強(qiáng)人工智能實(shí)現(xiàn),它可以很輕易地獲得提高,其能力也會(huì)增倍,這是機(jī)器能力的根本特質(zhì)。而這種自我強(qiáng)化的智能最終會(huì)超過人類智能水平。
 
  世界通用人工智能學(xué)會(huì)副主席、《通用人工智能》雜志主編、美國天普大學(xué)計(jì)算機(jī)與信息科學(xué)系副教授王培認(rèn)為,首先需要理清人工智能的概念。他告訴《中國科學(xué)報(bào)》記者,目前主流認(rèn)知是,“人工智能”就是要在計(jì)算機(jī)上再現(xiàn)“全部的”人類智力功能。
 
  雖然人們不斷嘗試設(shè)計(jì)和構(gòu)建“思維機(jī)器”,但是往往都以失敗而告終。因此,科學(xué)家轉(zhuǎn)而研發(fā)只在某個(gè)特定問題的解決上可以達(dá)到人類水平的計(jì)算機(jī)系統(tǒng)。
 
  在王培看來,這種研究方向的根本問題是這類系統(tǒng)的能力完全由人設(shè)計(jì)決定,系統(tǒng)本身基本上沒有適應(yīng)性、靈活性和創(chuàng)造性。因此,這類系統(tǒng)不是真正的智能。
 
  一種非主流認(rèn)識(shí)是,“智能”代表著某種理性原則,人類的智能從來不是全知全能,但人類總是能在任意環(huán)境中找到最優(yōu)解。因此,真正的智能的定義可以抽象為“在知識(shí)和資源相對(duì)不足的條件下的適應(yīng)能力”。
 
  所謂“適應(yīng)能力”是指,系統(tǒng)面臨的問題是實(shí)時(shí)發(fā)生的,對(duì)系統(tǒng)作出反應(yīng)的時(shí)間是有要求的;同時(shí),相對(duì)于所要解決的問題來說,系統(tǒng)只有有限的信息加工能力,比如記憶的容量、計(jì)算的速度;其次,系統(tǒng)必須是開放的,不對(duì)面臨的問題內(nèi)容加以限制。
 
  如此一來,目前人們所了解的人工智能系統(tǒng)都不滿足這種能力。但王培認(rèn)為,這才是更接近公眾心目中的人工智能觀念,是靈活的、有創(chuàng)造力的。
 
  這類系統(tǒng)是一個(gè)自適應(yīng)系統(tǒng),元程序設(shè)計(jì)會(huì)賦予其自主應(yīng)對(duì)問題的能力,但是它所面臨的每一個(gè)問題本身并沒有程序可以依靠,而是全憑自己在環(huán)境中學(xué)習(xí)和積累經(jīng)驗(yàn)。
 
  “無論計(jì)算機(jī)技術(shù)如何發(fā)展,盡管真正的人工智能系統(tǒng)會(huì)在很多具體問題的解決能力上超過人類,但由于它沒有生物屬性,沒有和人類完全相同的經(jīng)驗(yàn),所以不會(huì)在所有方面超越人類。”王培表示,未來的人工智能系統(tǒng)只是在某些方面和人具有可比性,而非整體超越人類。那么,人與系統(tǒng)之間的關(guān)系也不可能等同于人與人之間的互動(dòng)水平。
 
  人工智能真的可控嗎
 
  人工智能不會(huì)全面超過人類不意味著它完全可控。就連庫茲韋爾也表示,失控的人工智能在邏輯上是完全可能的。
 
  王培承認(rèn),“智能”往往被當(dāng)作褒義詞,但事實(shí)上,真正的智能在擁有靈活性和創(chuàng)造性的同時(shí),也可能是不穩(wěn)定、不可靠的。“人工智能目標(biāo)在一定程度上可以說就是減少人對(duì)計(jì)算機(jī)的控制和干預(yù)。因此,智能越高,失控的可能性在理論上就越大,風(fēng)險(xiǎn)也就越大。”
 
  這正好印證了倫理學(xué)家的擔(dān)憂。我國著名生命倫理學(xué)家邱仁宗表示,倫理學(xué)認(rèn)為解決這個(gè)問題的核心,是希望人工智能機(jī)器成為一個(gè)“人工道德行動(dòng)者”,使它們能考慮他人利益,甚至擁有利他主義傾向。
 
  美國機(jī)器智能研究院專門研究人工智能的安全發(fā)展,該機(jī)構(gòu)奠基人尤德科夫斯基就曾提出了“友好人工智能”的概念,認(rèn)為“友善”從設(shè)計(jì)伊始就應(yīng)當(dāng)被注入機(jī)器的智能系統(tǒng)中。但這個(gè)理論很容易被推翻。“一個(gè)明顯的常識(shí)是:人類無法避免自己的一部分后代學(xué)壞。”江曉原說。
 
  王培的看法是,一個(gè)智能系統(tǒng)的行為同時(shí)取決于其先天條件以及后天條件。對(duì)于系統(tǒng)設(shè)計(jì)本身,可以在某種程度上將人類普世的道德標(biāo)準(zhǔn)編進(jìn)程序。但由于它擁有自適應(yīng)能力,人類無法預(yù)見其行為的所有后果。
 
  “人工智能的‘自主決策’仍是被它的經(jīng)驗(yàn)所約束的,如果在其‘未成年’期對(duì)其輸入信息控制,以達(dá)到社會(huì)認(rèn)可的動(dòng)機(jī)、知識(shí)、技能結(jié)構(gòu)和水平,并在其成長過程中進(jìn)行與機(jī)器相關(guān)的道德、法律等社會(huì)約束,通過終生教育和社會(huì)化過程,可以實(shí)現(xiàn)像對(duì)人一樣的管理。”
 
  他認(rèn)為,這就是平衡自由和道德的手段,然而,這個(gè)平衡并不能事先保證。這也說明人工智能一定能成為“人工道德行動(dòng)者”的證據(jù)是不明確的。
 
  預(yù)防還是行動(dòng)
 
  有一種觀點(diǎn)認(rèn)為,在科技發(fā)展過程中,恐懼新技術(shù)的人都會(huì)振振有詞地說:到此處為止,不要再進(jìn)步。
 
  然而,由于“智能”天生就無法控制,在邱仁宗看來,人工智能對(duì)人類構(gòu)成的威脅是一種“存在威脅”,即人類存在本身都成為問題,沒有一項(xiàng)其他科技可以與之對(duì)等。
 
  “真正帶有終極性質(zhì)的問題是:我們究竟為什么需要人工智能?人工智能真的必不可少嗎?”江曉原認(rèn)為,“沒有人工智能或者限制人工智能并不會(huì)影響人類生存,它影響的是資本增值。”
 
  這也造成在該問題上兩種截然不同的處理原則。預(yù)防原則要求,我們不能用試錯(cuò)法來處理生存危機(jī)。如果一個(gè)行為的后果未知,但是根據(jù)科學(xué)家判斷有極小可能會(huì)帶來巨大的負(fù)面風(fēng)險(xiǎn),這一行為最好不要進(jìn)行;行動(dòng)派則認(rèn)為,很明顯,這就要求科學(xué)家在戰(zhàn)略中要盡可能提高自信以對(duì)抗這種風(fēng)險(xiǎn)。阻止新興技術(shù)帶來的好處,可能會(huì)增加災(zāi)難性結(jié)果的可能性。
 
  盡管兩者無法達(dá)成一致,但人工智能研究是人類幾千年來在意識(shí)層面上自我認(rèn)識(shí)的努力的最新前沿,它將不會(huì)停止發(fā)展。
 
  “目前在這個(gè)領(lǐng)域的研究成果還沒有成熟到支持應(yīng)用技術(shù)的程度。和所有科學(xué)領(lǐng)域一樣,把不成熟的研究成果投入實(shí)際應(yīng)用是危險(xiǎn)的,尤其是那些可能產(chǎn)生深遠(yuǎn)影響的成果,因此它的倫理問題很重要。”王培坦言,作為人工智能的研究者,隨時(shí)想著自己研究工作的社會(huì)后果非常必要。“但人工智能技術(shù)的具體倫理規(guī)范應(yīng)當(dāng)隨著科學(xué)研究的進(jìn)展而逐漸建立,而不可能在研究成果尚未成熟的條件下完善。”
 
  江曉原也表示,在必須發(fā)展該技術(shù)的前提下,我們應(yīng)該抱著慎之又慎的心態(tài)。雖然本質(zhì)上不存在能對(duì)抗強(qiáng)人工智能的絕對(duì)保護(hù)措施,大力增加在發(fā)展防御手段上的投入,包括道德標(biāo)準(zhǔn)、法律標(biāo)準(zhǔn)和防御技術(shù)本身都是非常必要的。
 
  此外,在他看來,當(dāng)這樣一項(xiàng)重大科技應(yīng)用有可能引發(fā)倫理和社會(huì)問題時(shí),應(yīng)對(duì)方式應(yīng)該是科學(xué)與人文、科學(xué)家與公眾之間展開積極的對(duì)話,而非單向的傳播和順從。
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行