国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

【思考】歐盟眼中的人工智能倫理問題

   日期:2018-04-02     來源:騰訊研究院    作者:liaiai     評論:0    
標簽:
  如今,人工智能倫理成為國際社會關注的焦點。
 
  此前,未來生命研究院(FLI)推動提出“23條人工智能原則”,IEEE發(fā)起人工智能倫理標準項目并提出具體指南。聯(lián)合國曾耗時兩年完成機器人倫理報告,認為需要機器人和人工智能倫理的國際框架。OECD亦開始考慮制定國際人工智能倫理指南。
 
  歐盟在這方面的動作亦很頻繁,積極推進人工智能倫理框架的確立。去年歐盟議會就曾通過一項立法決議,提出要制定“機器人憲章”,以及推動人工智能和機器人民事立法。
 
  去年年底歐盟將人工智能倫理確立為2018年立法工作重點,要在人工智能和機器人領域呼吁高水平的數據保護、數字權利和道德標準,并成立了人工智能工作小組,就人工智能的發(fā)展和技術引發(fā)的道德問題制定指導方針。
 
  2018年3月9日,歐洲科學與新技術倫理組織(European Group on Ethics in Science and New Technologies)發(fā)布《關于人工智能、機器人及“自主”系統(tǒng)的聲明》(Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems)。
 
  報告認為,人工智能、機器人技術和所謂的“自主”技術的進步已經引發(fā)了一系列復雜的、亟待解決的道德問題。
 
  該聲明呼吁為人工智能、機器人和“自主”系統(tǒng)的設計、生產、使用和治理制定共同的、國際公認的道德和法律框架。聲明還提出了一套基于歐盟條約和歐盟基本權利憲章規(guī)定的價值觀的基本倫理原則,為人工智能、機器人以及“自主”系統(tǒng)的發(fā)展提供指導性意見。
 
  1

  技術背景
 
  如今,人工智能在公共部門和私營部門帶來層出不窮的新產品和新服務,可以改善工作條件或減少對人類投入的需要,從而輔助或取代人類。然而,人工智能系統(tǒng)卻是最不透明的。
 
  深度學習和所謂的“生成對抗網絡模型”使機器自我學習。但是,機器的行為常常是不可理解的,也不受人類審查。不僅人們無法知曉系統(tǒng)如何決策,而且所使用的數據也是不公開的。因此,偏見和錯誤可能進入系統(tǒng)。
 
  相關的技術發(fā)展包括以下方面:
 
 ?。?)以機器學習(尤其是深度學習)為代表的人工智能,在大數據的驅動下,變得越來越強大。一般認為,人工智能的內在機理極其難以追溯、解釋和評估。
 
 ?。?)先進的機電一體化(人工智能與深度學習、數據科學、傳感器技術、物聯(lián)網、機械和電氣工程相結合)正在為服務業(yè)、生產行業(yè)和健康領域的實際應用,設計出各種機器人和高科技系統(tǒng),例如可以從事護理、零售、物流、家庭自主以及維護安全的各種系統(tǒng)。目前在這個領域爭論最多的是機器人武器系統(tǒng)(robotic weapons systems)和“自主”(autonomous)汽車這兩項應用。
 
 ?。?)更加智能的系統(tǒng)具有高度的自主性,這意味著其可以獨立地執(zhí)行任務而不受人類的控制。
 
  (4)機器人、人工智能和機電一體化,正在推動著更高程度自主系統(tǒng)的發(fā)展。國家和大型公司都在這個領域內投入了大量資金。目前,能夠在人工智能研究領域保持領先地位成為了世界超級大國的主要目標之一。
 
 ?。?)在人工智能的發(fā)展過程中要注重人類和機器的密切互動和緊密合作。實踐證明,在某些領域內,人工智能系統(tǒng)和人類專業(yè)人員密切配合的效率往往要高于人類或機器系統(tǒng)單獨操作。
 
  2
 
  道德反思
 
  現階段值得我們進行反思的是,隨著能夠脫離人類而獨立運行的高科技系統(tǒng)和軟件的出現,一些人類工作即將被取代,這將引發(fā)一系列重要且艱難的道德問題。
 
  1
 
  關鍵問題
 
  第一,是關于安全性、保險性以及預防損害、減少風險的問題。我們如何才能讓互聯(lián)的人工智能和“自主”設備安全可靠地運行,我們又該如何評估風險?
 
  第二,是關于人類道德責任方面的問題。在具有先進人工智能和機器人組件的動態(tài)和復雜的社會-技術系統(tǒng)中,道德相關的代理(agency)應該處于什么位置?應該如何分擔產生的道德責任,又應該由誰為其中產生的不良后果負責?探討人與智能機器之間的“共同控制”和“共同責任”是否有意義?人類是否將成為被視為道德“緩沖區(qū)(crumple zones)”的“自主”設備的生態(tài)系統(tǒng)的一部分,是為了吸收責任,還是他們有能力為自己的行為負責?
 
  第三,人工智能引發(fā)了關于治理、監(jiān)管、設計、開發(fā)、檢查、監(jiān)督、測試和認證的問題。我們應該如何重新設計為個人和社會服務的機構和法律,以確保這一技術不會給社會帶來危害?
 
  第四,是有關民主決策的問題,主要是關于制度、政策以及價值觀的決策,這些是解決上述所有問題的基礎。在全球范圍內開展調查,確定公民利用基于機器學習、大數據和行為科學相結合的先進技術的程度,確定其是否能夠利用這些先進技術進行細致的分析和定位,或者根據商業(yè)或政治目的進行合適的架構選擇。
 
  最后,對人工智能和“自主”系統(tǒng)的可解釋性和透明度仍存在疑問。這些系統(tǒng)能夠有效地提供哪些價值?我們應基于何種價值觀來設計機器,制定政策?我們在技術進步和效益權衡方面是否直接地或間接地破壞了一部分價值?
 
  一些國家關于人工智能驅動的,基于社會評分系統(tǒng)的,社會過程的“最優(yōu)化”的試驗,違背了平等和自由的基本思想,這就像種姓制度一樣,在現實中定義了“不同種類的人”以及“人的不同屬性”。
 
  2
 
  核心考量
 
  道德意義上的自主只能是一種人類活動。所以,將“自主”這個術語應用于純粹的人工制品,是一種誤用。然而,“自主”系統(tǒng)這個術語在科學文獻和公眾辯論中卻廣泛流行,指的是在操作和決策“自主”方面最高程度的自動性和獨立性。但是,原始意義上的自主是人類尊嚴的一個重要方面,不應該將其相對化。
 
  機器不能被賦予人的道德地位并且繼承人的尊嚴。因此,與生產的自動化相反,用我們處理物體或數據的方式來解決人類問題是不合適的,這種對人類“自主”的處理方式是不道德的,并且會破壞本質意義上的歐洲價值觀。
 
  人們應該明確哪些價值是可以由技術服務的,哪些是與道德緊密相關的,不管機器會變得多么“自主”,有些問題是不能由它們來解決的。
 
  這里的道德責任可能被廣義地解釋為涉及人類代理的幾個方面,例如因果關系、問責制(提供說明的義務)、責任(賠償損害的義務)、贊賞和責備等反應性態(tài)度以及與社會角色相關的責任。無論如何,道德責任不能被分配或轉移到相關的“自主”技術上。
 
  最近,在關于致命自主武器系統(tǒng)(Lethal Autonomous Weapons Systems)和自主車輛的爭論中,似乎存在著廣泛的共識,即有意義的人類控制對道德責任至關重要。
 
  這是有意義的人類控制(Meaningful Human Control)原則首次被提出用來限制未來武器系統(tǒng)的開發(fā)和利用。這意味著人類——而不是計算機及其算法——最終應在此類問題上保持控制權。
 
  3
 
  超越狹義道德框架(ethical framing)
 
  自動駕駛汽車和致命自主武器系統(tǒng)的發(fā)展引發(fā)了眾多關于道德的辯論。該框架的核心問題主要是“自主”系統(tǒng)的責任問題,其可能造成的影響以及如何對其進行編程,使其能夠在應用中符合道德規(guī)則,如在危急情況下挽救人的生命。
 
  這其實忽略了很多問題,例如“過去采取的哪些設計方面的決策造成了這種道德困境”,“哪些價值觀應該在設計中予以考慮”,“設計中的價值應該在沖突情況下如何衡量以及由誰來衡量”?
 
  第二個存在爭議的是“自主”武器系統(tǒng)。現在需要關注的問題是這些系統(tǒng)上“有意義的人類控制”的性質和意義是什么,以及如何建立這種符合道德原則的“有意義的人類控制”。
 
  第三個重要的應用領域是“自主”軟件,包括機器人。除了關于數據保護和隱私的簡單問題之外,我們可能會問人們是否有權知道他們是在和人還是和人工智能系統(tǒng)交流。
 
  此外,問題還在于是否應該限制人工智能系統(tǒng)根據個人對其身份概念的建構而向該人提供建議的行為。雖然人們越來越意識到需要解決這些問題,但目前人工智能和機器人技術的發(fā)展速度遠快于尋找這些棘手的道德、法律和社會問題答案的速度。顯然現在急需為人工智能,機器人和“自主”系統(tǒng)的設計、生產、使用和治理規(guī)劃一個整體化的、全面性的發(fā)展進程,為設立共同的、國際公認的道德框架鋪平道路。
 
  3
 
  建立一個同時適用于人工智能,機器人和“自主”系統(tǒng)的倫理框架
 
  許多行業(yè)內部的從業(yè)者和專家協(xié)會都提出了制定人工智能和“自主”系統(tǒng)的道德原則方面的一些突出舉措。
 
  主要倡議之一是由生命未來研究院(FLI)發(fā)起的,最終形成了“阿西洛瑪人工智能原則(Asilomar AI Principles)”。這份指導人工智能研究和應用的23項基本原則已由數百名利益相關方簽署,簽署者主要是科學家、人工智能研究人員和行業(yè)相關者。
 
  聯(lián)合國和“特定常規(guī)武器公約”的會議啟動了人工智能軍事應用的全球性辯論,大多數締約國都贊同“對致命自主武器系統(tǒng)進行有意義的人類控制”原則,應該禁止建立能夠脫離人類控制的自主武器系統(tǒng)。聯(lián)合國還在海牙建立了一個專門研究機構,研究機器人和人工智能的治理。
 
  與此同時,在國家層面上,各個國家對待人工智能的態(tài)度各不相同。一些國家將制定機器人和人工智能規(guī)則作為優(yōu)先事項,而其他國家卻尚未采取任何措施。由于各國發(fā)展狀況不一,歐洲議會呼吁先采取一系列措施來準備對發(fā)展到一定階段的人工智能進行監(jiān)管,包括為機器人的設計、生產和使用制定指導性道德框架。
 
  4
 
  道德原則和民主先決條件
 
  歐洲科學與新技術倫理組織提出了一系列基本原則和民主先決條件,其基礎是歐盟條約和歐盟基本權利憲章。
 
  1
 
  人類尊嚴(Human dignity)
 
  尊嚴原則可被理解為對固有的人類狀態(tài)尊重性地承認,其不能被“自主”技術所侵犯。這意味著,對于算法和“自主”系統(tǒng)必須加以法律的限制。以社會關系為特征的人格尊嚴要求我們意識到自己是否或者何時與機器或其他人互動,并且應保留將特定任務歸還給人或機器的權利。
 
  2
 
  自主(Autonomy)
 
  自主原則意味著自由。但這就賦予了人控制和了解“自主”系統(tǒng)的責任。因此,所有“自主”技術必須尊重人類選擇,尊重人類選擇是否、如何以及何時將決策和行動委托給人工智能系統(tǒng)的能力。這也涉及“自主”系統(tǒng)的透明度和可預測性。
 
  3
 
  責任(Responsibility)
 
  責任原則是人工智能研究和應用的基礎。“自主”系統(tǒng)的設計應該與基本的人類價值觀和權利相一致。對“自主”技術而言,風險意識和相應的預防措施至關重要。
 
  人工智能和機器人技術的應用不應對人類構成傷害或讓其承受不可接受的風險,并且不應通過非法手段損害公民的選擇權和自主權,而應該是增加獲取知識的機會,并以關注倫理、社會責任以及保護基本權利和價值作為追求目標。
 
  4
 
  正義、公平和團結(Justice, equity, and solidarity)
 
  對于人工智能系統(tǒng),應盡早預防、檢測、報告以及消除系統(tǒng)中訓練和運行數據中存在的歧視性偏差。這包括制定公平分配利益和機會公平的新型模式。要警惕累積的大量個人詳盡數據的不良影響,避免激進個人主義的出現。
 
  5
 
  民主(Democracy)
 
  人工智能發(fā)展和應用管理的關鍵決策應該通過公眾參與,經過民主辯論得出。獲取有關新技術的信息有助于每個人充分了解風險和機遇,并參與決策過程。人的尊嚴和自主原則集中地通過民主手段來體現人的自決權,數字技術應該通過運用集體智慧來改善民主社會所依賴的公民進程。
 
  6
 
  法治和問責制(Rule of law and accountability)
 
  司法機關所能發(fā)揮的作用為設立人工智能具體規(guī)定提供了必要框架。這包括對“自主”系統(tǒng)可能產生安全和隱私風險的保護問題。對該領域出現的所有法律問題,應當及時研究并尋找強有力的解決方案,提供公平和明確的責任分配以及有約束力的法律機制,明確“自主”系統(tǒng)不良行為所造成損害的責任承擔問題。
 
  7
 
  安全性、保險性以及身體和精神完整性(Security, safety, bodily and mental integrity)
 
  “自主”系統(tǒng)的安全性和保險性體現為三種形式:其環(huán)境和用戶的外部安全性;可靠性和內部穩(wěn)健性;人機交互方面的模式安全。人工智能開發(fā)人員必須考慮到安全方面的所有問題,在系統(tǒng)發(fā)布之前進行嚴格的測試,以確保“自主”系統(tǒng)不會侵犯多方面的安全性。
 
  8
 
  數據保護和隱私(Data protection and privacy)
 
  在數字通信技術無處不在的時代,個人信息和隱私權的保護受到嚴峻威脅。在此環(huán)境下,人工智能機器人以及人工智能軟件必須遵守數據保護條例(GDPR)。
 
  此外,“自主”系統(tǒng)不得干涉私人生活,在這方面,應確定確切的標準并建立相關機制,以確保道德機制不斷完善,為“自主”系統(tǒng)的正確適用提供規(guī)范。
 
  9
 
  可持續(xù)性(Sustainability)
 
  在發(fā)展人工智能技術的同時要防止未來技術對人類生命和自然造成不利影響,應將環(huán)境保護和可持續(xù)性優(yōu)先放在人工智能發(fā)展政策的首要位置。如果設計和應用得當,人工智能、機器人和“自主”系統(tǒng)有助于實現道德理想和社會經濟目標。
 
  5
 
  結論
 
  歐洲科學與新技術倫理組織呼吁歐盟委員會認真考慮本聲明中討論的問題及相關法律規(guī)則,確認是否需要新的管理和監(jiān)管手段。為人工智能、機器人和“自主”系統(tǒng)的設計、生產、使用和治理,建立一個通用的、國際公認的道德和法律框架。
 
  作者:
 
  曹建峰 騰訊研究院法律研究中心高級研究員
 
  付一方 騰訊研究院法律研究中心助理研究員
 
  霍文新 騰訊研究院法律研究中心助理研究員
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行