国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

美國率先提出軍用人工智能倫理原則

   日期:2019-11-11     來源:中國青年報中青在線    作者:阿芬     評論:0    
標(biāo)簽: 美國 人工智能 倫理
  隨著人工智能技術(shù)的巨大成功并開始在軍事領(lǐng)域廣泛應(yīng)用,人們擔(dān)心它會導(dǎo)致“機器殺人”的慘劇出現(xiàn)。著名天體物理學(xué)家斯蒂芬·霍金對人工智能充滿期待,同時也對它的開發(fā)應(yīng)用滿懷擔(dān)憂:“有益的人工智能可以擴大人類的能力和可能性,但失控的人工智能很難被阻止。所以,在開發(fā)人工智能時必須保證符合道德倫理與安全措施的要求。”10月31日,美國國防創(chuàng)新委員會率先推出《人工智能原則:國防部人工智能應(yīng)用倫理的若干建議》,這是對軍事人工智能應(yīng)用所導(dǎo)致倫理問題的首次回應(yīng)。
 
  美國國防創(chuàng)新委員會的這份報告為美國國防部在戰(zhàn)斗和非戰(zhàn)斗場景中設(shè)計、開發(fā)和應(yīng)用人工智能技術(shù),提出了“負(fù)責(zé)、公平、可追蹤、可靠、可控”五大原則。
 
  “負(fù)責(zé)”原則的主要含義是,人工智能是人的產(chǎn)物,人是能動的、具有個人價值觀和情感好惡的責(zé)任主體。人工智能技術(shù)的決策者和開發(fā)專家,必然要體現(xiàn)人的主體作用,他們理所當(dāng)然應(yīng)該為自己的決定和行為造成的結(jié)果負(fù)責(zé)。在軍事應(yīng)用中,因為造成的后果可能具有毀滅性,所以,“負(fù)責(zé)”成為第一原則。
 
  “公平”原則是指,對人而言,不同領(lǐng)域、不同職級的所有人在人工智能面前是平等的,不應(yīng)有區(qū)別對待。人工智能系統(tǒng)應(yīng)無差別地向人機界面提供它的處理結(jié)果,依據(jù)結(jié)果作出判斷、采取行動,機會也是公平的。
 
  “可追蹤”原則的含義是,不管是純技術(shù)過程還是人機交互過程,人工智能系統(tǒng)都必須是可追溯和可審計的。人工智能系統(tǒng)要如實記錄生成決定的整個過程和系統(tǒng)所作的決定,包括數(shù)據(jù)收集、數(shù)據(jù)標(biāo)記以及所用算法等,不僅要確保其數(shù)據(jù)和系統(tǒng)的透明度,而且要確保其數(shù)學(xué)模型的透明度。
 
  “可靠”原則指的是,人工智能系統(tǒng)在使用過程中對使用者而言是安全、可靠和不作惡的。
 
  “可控”原則要求,不管人工智能系統(tǒng)的功能如何強大、技術(shù)如何發(fā)展,它的作用和能力應(yīng)該永遠(yuǎn)置于人的控制之下。美軍在伊拉克戰(zhàn)場上使用的智能機器人就有失控向己方開火的先例。落實“可控”原則,就要嚴(yán)格限定對人工智能的授權(quán),同時要加強對技術(shù)失誤的警惕、督查和檢驗。
 
  為了貫徹以上軍用人工智能倫理原則,美國國防創(chuàng)新委員會提出了若干條建議,可以歸納為以下4個方面的舉措。
 
  一是通過國防部官方渠道將這些原則正式化?!度斯ぶ悄茉瓌t:國防部人工智能應(yīng)用倫理的若干建議》是全球第一個完整描述軍事人工智能倫理原則的文件。美國國防創(chuàng)新委員會是一個獨立的聯(lián)邦顧問委員會,成員包括來自谷歌、臉書、微軟等科技企業(yè)的高管和專家。這一組織雖然在形式上是一個民間組織,但其功能是為國防部高層領(lǐng)導(dǎo)提供建議。其提出的軍用人工智能原則,雖然并不自動成為美國國防部的原則,但成為美國國防部認(rèn)可標(biāo)準(zhǔn)的概率是很大的。
 
  二是建立一個為國防部服務(wù)的人工智能指導(dǎo)委員會。美軍之前開展的“利用受監(jiān)管的自主能力開展城市偵察”項目,需要收集復(fù)雜城市作戰(zhàn)環(huán)境中的人員信息,使自主系統(tǒng)能夠在監(jiān)視和操控下探測敵人,幫助作戰(zhàn)人員甄別真正的威脅,防止向友軍發(fā)射火力以及造成平民傷亡。為此,美軍在進行技術(shù)研發(fā)之始,就成立了相關(guān)的倫理咨詢委員會。目前,美國國防創(chuàng)新委員會是一個功能涵蓋較寬的組織,在其中成立專門的人工智能指導(dǎo)委員會有其必要性。
 
  三是確保人工智能倫理原則的正確執(zhí)行。為達成這一目標(biāo),需要相關(guān)各方在原則條款和內(nèi)涵理解上都達成共識。與此同時,必須在軍用人工智能開發(fā)應(yīng)用的各個領(lǐng)域,制定明確的、可操作的執(zhí)行細(xì)則和標(biāo)準(zhǔn)規(guī)范,這是人工智能倫理原則得到正確執(zhí)行的基礎(chǔ)。
 
  四是召開有關(guān)人工智能安全的年度會議。由于人們對人工智能倫理問題的認(rèn)識還處于初級階段,已經(jīng)制定的原則是否合理有效也有待檢驗。因此,召開人工智能安全年會必不可少,這樣可以對倫理原則執(zhí)行情況進行督查,并根據(jù)效果分析不斷改進。
 
  新美國安全中心的“技術(shù)和國家安全計劃”主任保羅·斯查瑞是“利用受監(jiān)管的自主能力開展城市偵察”項目倫理咨詢委員會的成員。他認(rèn)為,制定人工智能倫理原則,可使各方面專家在智能系統(tǒng)研發(fā)之初就法律、道德和倫理問題進行早期溝通,對于推動技術(shù)發(fā)展和結(jié)果可靠具有關(guān)鍵意義。
 
  如果不受限制地將人工智能應(yīng)用于軍事領(lǐng)域,后果可能是人類難以承受的。美國率先制定軍用人工智能倫理原則,客觀上成為這一問題的權(quán)威發(fā)言者,有利于其占據(jù)道德制高點并掌控相關(guān)話語權(quán),這也方便美國在大力發(fā)展人工智能軍事應(yīng)用的同時,以倫理道德為借口,遏制其他國家軍隊在相關(guān)領(lǐng)域的發(fā)展。
 
  由于軍事人工智能所展示的現(xiàn)實能力和巨大潛力,人們普遍認(rèn)為人工智能技術(shù)將重塑未來戰(zhàn)爭形態(tài)。在此重要關(guān)頭,美國率先推出軍用人工智能倫理原則,無疑同樣具有爭奪智能化戰(zhàn)爭定義權(quán)的用意。達成這樣的目標(biāo),將使美國在軍用人工智能發(fā)展上獲得主導(dǎo)權(quán)和領(lǐng)先優(yōu)勢。
 
 ?。ㄗ髡邌挝唬簢揽萍即髮W(xué)信息通信學(xué)院)
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行