国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

還在擔(dān)心機(jī)器人統(tǒng)治社會?其實機(jī)器人更害怕人類

   日期:2017-09-11     來源:網(wǎng)易智能    作者:dc136     評論:0    
標(biāo)簽: 機(jī)器人
 還在擔(dān)心機(jī)器人統(tǒng)治社會?其實機(jī)器人更害怕人類
       似乎每個月都會有一些關(guān)于人工智能(AI)如何偷走我們的工作、傷我們的心,或者直接把我們所有人都?xì)⒐獾男侣剺?biāo)題或電影出現(xiàn)。
 
  這不僅僅是一個勒德分子(一個害怕或者厭惡技術(shù)的人,尤其是威脅現(xiàn)有工作的新技術(shù)的形式。)的問題。和埃隆·馬斯克一樣,一個技術(shù)愛好者經(jīng)常會援引對人工智能的恐懼和厭惡,把它比作一個邪惡的惡魔,必須通過國家的力量來驅(qū)散它。隨著所有這些反對AI偏見的出現(xiàn),自由主義者和技術(shù)專家們將站在那些想要壓制這些技術(shù)的立法者和學(xué)者面前。
 
  人們常常對新生事物產(chǎn)生畏懼。無論是織布機(jī)還是智能手機(jī)的興起,人們從未停止過擔(dān)心。過去,反科技的爭論已經(jīng)被得到了很好的解決。約瑟夫·熊彼特(Joseph Schumpeter)等經(jīng)濟(jì)學(xué)家指出,創(chuàng)造的行為必然包括破壞舊的、通常過時的、低效的、生活和生產(chǎn)的方法。但是這種破壞帶來了新的生活:新的機(jī)會、商品和服務(wù),以及新的生活方式,沒有這些我們將無法生活。從經(jīng)濟(jì)上來說,一項顛覆性技術(shù)帶來的工作的數(shù)量和質(zhì)量總是會超過那些被小心翼翼地保護(hù)著的。在文化上,社會經(jīng)受住了許多人聲稱的會導(dǎo)致社會衰退和災(zāi)難的暴風(fēng)雨。
 
  但是一提到人工智能,似乎有些不同。技術(shù)變革的步伐似乎太快了。智能機(jī)器的想法似乎與我們太相似,無法給人以安慰,而對機(jī)器替代人類的原始恐懼也變得越來越嚴(yán)重。不幸的是,這些擔(dān)憂已經(jīng)轉(zhuǎn)移到學(xué)術(shù)和法律層面的技術(shù)上,就像亞當(dāng)·塞勒(Adam Thierer)、雷蒙德·羅素(Raymond Russell)的新莫卡特斯中心(Mercatus Center)的研究,以及你真正的討論。一不小心我們偏執(zhí)的想象中最糟糕的行為可能會導(dǎo)致法規(guī)將我們從健康、制造和交通的驚人發(fā)展中排除出去。
 
  首先,很重要的一點是要弄清楚這條“線”到底是什么??苹眯≌f中關(guān)于殺手機(jī)器人和非人道的未來的故事就是這種虛構(gòu)的東西。人工智能技術(shù)的實現(xiàn)也會變得更加平凡,更加不切實際。它們將是平凡的,因為當(dāng)最有效的時候,它們將會如此無縫地融入我們的環(huán)境,幾乎是無法察覺的。但它們將會非常棒,因為它們有可能拯救數(shù)百萬人的生命,節(jié)省數(shù)十億美元,讓我們的生活更輕松、更舒適。
 
  考慮一下制造業(yè)。許多人擔(dān)心機(jī)器人技術(shù)和人工智能會給傳統(tǒng)工作帶來風(fēng)險。但即使是最令人擔(dān)憂的分析自動化對工作的影響的研究發(fā)現(xiàn),絕大多數(shù)的工人也會很好,那些受影響的人可能會找到更好的工作,而自動化會提高他們的工作質(zhì)量。但與此同時,根據(jù)麥肯錫(McKinsey)和公司的數(shù)據(jù),人工智能對制造技術(shù)的改進(jìn),可能會在2025年實現(xiàn)約1.4萬億美元的價值。這個巨大的數(shù)字也代表著最不富裕的一些人的真正儲蓄,而且很可能會加劇貧富差距。
 
  或者考慮一下醫(yī)療保健。醫(yī)生們已經(jīng)使用了人工智能增強(qiáng)技術(shù)來指導(dǎo)他們進(jìn)行精確的手術(shù),幫助他們更有效地診斷疾病,甚至幫助病人在很長一段時間內(nèi)跟蹤健康情況。這些技術(shù)可能確實挽救了生命,在接下來的10年里,他們預(yù)計將在我們失控的醫(yī)療保健行業(yè)中大量減少成本,可達(dá)數(shù)千億美元。
 
  防止人工智能技術(shù)為數(shù)百萬人生活帶來真正的風(fēng)險,這不是不切實際的。這就像每年通過阻止無人駕駛汽車的發(fā)展,允許成千上萬的可預(yù)防的高速公路死亡一樣簡單。
 
  這些只是我們在報告中強(qiáng)調(diào)的幾個例子。許多研究技術(shù)問題的學(xué)者認(rèn)為這并沒有想象中樂觀。他們認(rèn)為人工智能技術(shù)的風(fēng)險——無論是勞動力轉(zhuǎn)移、人身安全,還是完全不同的影響和歧視——都是“先停下來,再問問題”的方法。他們提出的法規(guī)將有效地冷卻人工智能研究;事實上,一些主張這些立場的人明確認(rèn)識到這是他們的目標(biāo)。
 
  有趣的是,對于傳統(tǒng)的關(guān)于自動化的擔(dān)憂,即勞動力市場的流離失所和收入效應(yīng),正日益被存在風(fēng)險和社會歧視的新?lián)鷳n所超越。在metanarUNK結(jié)構(gòu)的方面,是對“超級智能”和“硬”人工智能的廣泛關(guān)注這一觀點是馬斯克在2014年出版的《超級智能》一書中所采用的。然而,正如我們在論文中所討論的那樣,在科學(xué)界存在著許多分歧,即這些結(jié)果在物理上是否可行。然而,正如我們在論文中所討論的那樣,科學(xué)界和物理界上對此存在著很大的分歧。嘿,如果情況更糟,我們總是可以把機(jī)器的電源拔掉。
 
  對于大多數(shù)讀者來說,更熟悉的是當(dāng)天社會政治關(guān)注的擔(dān)憂。人工智能很大一部分對抗者都來自于那些不害怕社會末日的批評人士,但這種算法和機(jī)器學(xué)習(xí)軟件可以進(jìn)一步鞏固社會差距。例如,提供對某一特定受保護(hù)群體進(jìn)行加權(quán)的輸出的算法會立即被懷疑。人們擔(dān)心的是,一個被“黑盒子”統(tǒng)治的社會(使用一個由評論家Frank?Pasquale創(chuàng)造的術(shù)語)將會以難以察覺的方式給社會分層,從而將進(jìn)一步加劇社會的兩極分化。
 
  當(dāng)然,硅谷是一個少見的自由的地方,所以你可能會認(rèn)為,批評者會認(rèn)為他們是在人工智能技術(shù)中積極對抗偏見的天然盟友。事實并非如此。人工智能的批評者認(rèn)為,我們需要“及時并提前立法”,以領(lǐng)先于創(chuàng)新者,并迫使他們?nèi)プ稣f的事情。他們呼吁建立大量新的政府辦公室和機(jī)構(gòu)來控制人工智能技術(shù),從一個聯(lián)邦人工智能機(jī)構(gòu),到一個“聯(lián)邦機(jī)器人委員會”,到一個“國家算法技術(shù)安全管理”。毫無疑問,隨著繼續(xù)集成人工智能技術(shù)的發(fā)展,我們周圍的一切都與軟件密不可分,這樣一個聯(lián)邦人工智能機(jī)構(gòu)的創(chuàng)建最終可能會控制住你周圍的一切。
 
  有些人想通過法院來暗中監(jiān)管。例如,法學(xué)教授Danielle Keats Citron呼吁通過一項她稱之為“技術(shù)正當(dāng)程序”的法律原則,對算法和人工智能技術(shù)進(jìn)行“精心設(shè)計的質(zhì)量控制的審查模式”。白宮在2014年發(fā)布的一份關(guān)于隱私和大數(shù)據(jù)的報告,似乎是在對一項更嚴(yán)格的行政調(diào)查過程做出回應(yīng),呼吁監(jiān)管機(jī)構(gòu)對算法進(jìn)行“嗅探”,以“對受保護(hù)的階層產(chǎn)生歧視性影響”。當(dāng)然,很少有創(chuàng)新者愿意公開打破法律,不公平地影響某些群體,但這種聯(lián)邦調(diào)查,如果不是精心組織,就會冒著變得過于狂熱的政治迫害的風(fēng)險。
 
  這些監(jiān)管建議與他們尋求解決的少數(shù)問題相比,產(chǎn)生了更多的問題。如上所述,專橫的監(jiān)管制度將使我們喪失數(shù)萬億美元的經(jīng)濟(jì)增長和成本,大幅改善生活,拯救世界各地數(shù)百萬人的生活。但即便是一個更寬松的監(jiān)管體制或責(zé)任結(jié)構(gòu),也可能讓人工智能的發(fā)展降溫,而這也會產(chǎn)生類似的效果。
 
  事實上,還有更好的方法來解決這些問題。我們的機(jī)器變得越來越智能。難道我們的規(guī)章制度不也應(yīng)該如此嗎?過去的命令與控制模式是行不通的,尤其是因為監(jiān)管者需要作出明智決定的許多信息,對于那些在這些技術(shù)上工作的開發(fā)人員(特別是在機(jī)器學(xué)習(xí)方面)并不明顯。
 
  那么,政策制定者應(yīng)該學(xué)習(xí)什么呢?謙遜,教育,與學(xué)者、創(chuàng)新者和工業(yè)合作。大多數(shù)的擔(dān)憂都將通過競爭和認(rèn)證的市場來解決。在那些大問題確實存在的地方——比如人工智能技術(shù)應(yīng)用于執(zhí)法技術(shù),或者開發(fā)“智能武器”——或許更多的預(yù)防措施是有根據(jù)的。但在絕大多數(shù)情況下,交流和正常的責(zé)任工具以及法律補(bǔ)救措施將足以完成這項工作。
 
  人工智能技術(shù)給我們帶來的好處將是巨大的。因此我們必須確保人類不去扼殺機(jī)器人。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行