人工智能也是可以有人情味兒的。本周加州兩所大學(xué)分別宣稱已成立新研究中心,探索如何利用人工智能使人類生活得更好。而這一點也成功引起了研究者們的注意:

本周三,南加州大學(xué)維特比工程學(xué)院及社會工作學(xué)院表示,他們已加入到人工智能社會解決方案研究中心的成立工作當(dāng)中。
而就在前一天,加州大學(xué)伯克利分校剛剛對外公開它新創(chuàng)立的人類共處式人工智能中心。
即使包括史蒂芬·霍金、比爾·蓋茨及伊隆·馬斯克等科技權(quán)威者們早就警告,AI的發(fā)展會顛覆人性。專家稱,目前人們尚未看到這種可能,然而科學(xué)家們卻越來越熱衷于在人工智能領(lǐng)域?qū)ふ夷芮袑崕椭饺祟惿畹慕鉀Q方法。
加州大學(xué)伯克利分校的人工智能中心由該領(lǐng)域?qū)W者Stuart Russell指導(dǎo),旨在理解如何將人類價值觀嵌入人工智能的設(shè)計當(dāng)中,并創(chuàng)造一種數(shù)學(xué)框架,促進(jìn)建立有利人性的人工智能系統(tǒng)。

然而,這條路并不好走。
困難之一是機(jī)器人很難理解人類的實際需求,因為他們通常表述不清自己的目的到底是什么。
Russel將此稱為“國王邁達(dá)斯的問題”。希臘神話中,國王邁達(dá)斯要求,他碰觸到的所有東西都變成金子。結(jié)果按他的意思,連碰觸到的飲食也都變成了金子。但他的本意并不真的指“所有東西”,可為時已晚。最終,他不得不在饑餓與痛苦中死去。
因此,想解決溝通問題,科學(xué)家可能會設(shè)計人工智能,使之能通過人類行為來觀察人類,學(xué)習(xí)他們的價值觀。“即使這會帶來不確定因素,他們還是會這么做,”Russell補(bǔ)充說,“因為人類的行為不總是和他們的價值觀相一致。”
“我的目標(biāo)……主要是關(guān)注長期問題,怎么設(shè)計才能保證人工智能系統(tǒng)的成果一定有利于人類”,Russell表示。
南加州大學(xué)的研究中心由人工智能學(xué)者M(jìn)ilind Tambe 和社會工作科學(xué)家 Eric Rice聯(lián)合執(zhí)導(dǎo)。他們的研究方向和伯克利分校研究中心不同:他們利用人工智能現(xiàn)有能力,解決混亂、復(fù)雜的人類環(huán)境中存在的問題。
日前,Tambe已帶領(lǐng)由白宮科技政策辦公室資助的研討小組,研究如何將人工智能應(yīng)用在社會福利上。比如說:
利用人工智能幫助護(hù)林人員,減少野生動物侵犯林地;
幫助洛杉磯安全官員搜查到更多違禁武器,藥物和其他禁品。
他和Rice共同負(fù)責(zé)的項目向人們證實了該研究中心能做什么:通過人工智能分辨出社交網(wǎng)絡(luò)中的關(guān)鍵人物,以阻止艾滋病病毒在洛杉磯地區(qū)的流浪青年中傳播。
人工智能也包含大量技術(shù),有機(jī)器學(xué)習(xí)、計算機(jī)視覺、自然語言程序和博弈論(雖然有些人認(rèn)為博弈論可能屬于其他學(xué)科范疇,Tambe說)。這些領(lǐng)域和人類智力有部分類似。Tambe希望,隨著越來越多的研究者加入到研究中心的工作中,更多的計算機(jī)工具能被有效利用。
“讓所有人接受同一個人工智能的定義,這很難實現(xiàn),”Tambe說,“但要緊的是,這些人類推理都會應(yīng)用到解決問題中,希望人工智能有能力做到,并且能做更多。”
從全球變暖問題對貧困地區(qū)的影響,到兒童福利系統(tǒng)、流浪者和醫(yī)療服務(wù)等社會問題,Rice說他看到了科技在不同的環(huán)境下解決困難的潛力。他解釋,盡管研究中心創(chuàng)始董事身份背景各有不同,但他們各自的獨(dú)特技術(shù)可以彼此互補(bǔ),使對方變得更強(qiáng)。
Rice還表示:
“社會工作者能理解真實世界的復(fù)雜性,而從事計算機(jī)科學(xué)的人能模擬機(jī)超復(fù)雜系統(tǒng)。把他們放在一起會極大促進(jìn)該領(lǐng)域的發(fā)展,并將這些復(fù)雜問題引向解決之路。”