1. 創(chuàng)業(yè)頭條
  2. 前沿領(lǐng)域
  3. 人工智能
  4. 正文

Google再與軍方合作,AI倫理的邊界在哪里?

 2018-06-09 15:59  來源:A5專欄  我來投稿 撤稿糾錯

  阿里云優(yōu)惠券 先領(lǐng)券再下單

文|柯鳴

來源|

智能相對論

故事要從今年三月初說起。

今年三月,Google被爆料已經(jīng)與美國國防部(五角大樓)達(dá)成合作,幫助后者開發(fā)應(yīng)用于無人機(jī)的人工智能系統(tǒng),項目代號Project Maven。

消息一出,瞬間風(fēng)起云涌,谷歌員工表達(dá)了對此項目的強烈不滿。有員工認(rèn)為Google在為五角大樓開放資源,助紂為虐般地幫助后者打造無人機(jī)監(jiān)控技術(shù);還有一部分人質(zhì)疑Google如此使用機(jī)器學(xué)習(xí)技術(shù)是否符合道德標(biāo)準(zhǔn),他們認(rèn)為五角大樓會將這一技術(shù)用于殺傷性武器,進(jìn)而帶來技術(shù)樂觀派們從未想要造成的傷害。

隨后,谷歌超過3100名員工聯(lián)名請愿,上書CEO桑達(dá)爾·皮查伊(Sundar Pichai),表達(dá)抗議。

Google再與軍方合作,AI倫理的邊界在哪里?2.jpg

谷歌員工聯(lián)名上書Sundar Pichai

事情到四月底進(jìn)一步發(fā)酵。有媒體發(fā)現(xiàn),Google刪掉了其沿用十八年的座右銘“Don't be evil”在公司行為守則開頭中的三處強調(diào)。僅在準(zhǔn)則的結(jié)尾,還留有未被刪掉的一句:“記住,don't be evil,如果你看到了一些你認(rèn)為不正確的事情,大聲說出來!”

上周五,在每周一次的“天氣預(yù)報”例會上,Google Cloud首席執(zhí)行官黛安·格林(Diane Greene)宣布,Google將在這次合約到期后結(jié)束與美國國防部的合作的Project Maven

這無疑是一件大事。“勝利的消息”在谷歌內(nèi)部瘋傳。隨著一篇篇報道的蜂擁而出,這件事情似乎暫時以谷歌“向員工妥協(xié)、停止與國防部續(xù)約”的方式得以落幕。

但就在今天,谷歌CEO Sundar Pichai發(fā)表了署名題為《AI at Google:our principles》的文章,列出7大指導(dǎo)原則,并指出谷歌并不會終止與美軍的合作。谷歌的反轉(zhuǎn)讓人唏噓,雖然其明確了“不會追求的AI應(yīng)用”,但技術(shù)作惡還是人作惡的問題,AI倫理再次引人深思。

AI倫理的邊界在哪里?

如果說谷歌近期來不太平,那么亞馬遜Alexa的日子也不好過。

亞馬遜的Echo設(shè)備被指控未經(jīng)許可將私人對話錄音,并將音頻發(fā)送給用戶聯(lián)系人列表中的隨機(jī)一位人士。這距離上次Alexa被爆出“嘲笑人類”事件的嚇人事件,還沒過過去多久。

Amazon對Alexa一事的回應(yīng)

這可遠(yuǎn)遠(yuǎn)不是個例。早在2016年,一個人設(shè)為19歲少女、名為Tay的聊天機(jī)器人在推特上線。這個微軟開發(fā)的人工智能采用了自然語言學(xué)習(xí)技術(shù),能夠通過抓取和用戶互動的數(shù)據(jù),處理并模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay就被“調(diào)教”成了一個滿口叫囂著種族清洗、粗野不堪的極端分子,微軟只好以“系統(tǒng)升級”為由將其下架。

Google再與軍方合作,AI倫理的邊界在哪里?5.jpg

微軟機(jī)器人Tay的極端言論

這著實讓人細(xì)思極恐。智能相對論分析師柯鳴認(rèn)為,隨著AI弊病的凸顯,AI倫理問題也將日益得到重視。AI倫理的邊界到底在哪里?首先應(yīng)該明確幾個問題。

1.機(jī)器人是否成為民事主體?

隨著人工智能技術(shù)的快速發(fā)展,機(jī)器人擁有越來越強大的智能。機(jī)器與人類之間的差距也逐漸縮小,未來出現(xiàn)的機(jī)器人將擁有生物大腦,甚至可以與人類大腦的神經(jīng)元數(shù)量相媲美。美國未來美國未來學(xué)家甚至預(yù)測:在本世紀(jì)中葉,非生物智能將會10億倍于今天所有人的智慧。

公民身份似乎已經(jīng)不再成為機(jī)器人的難題。去年十月,世界首個獲得公民身份的機(jī)器人索菲亞誕生,這也意味著人類的創(chuàng)造物擁有了和人類等同的身份,以及其身份背后所擁有的權(quán)利、義務(wù)、和社會地位。

而法律上的民事主體資格依然是AI倫理的分界線。在過去的一段時期,美英等國的哲學(xué)家、科學(xué)家包括法律家都為此開展過激烈的爭論。2016年,歐盟委員會法律事務(wù)委員會向歐盟委員會提交動議,要求將最先進(jìn)的自動化機(jī)器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權(quán)利和義務(wù)”外,還建議為智能自動化機(jī)器人進(jìn)行登記,以便為其進(jìn)行納稅、繳費、領(lǐng)取養(yǎng)老金的資金賬號。該項法律動議如獲通過,無疑使得傳統(tǒng)的民事主體制度產(chǎn)生動搖。

從嚴(yán)格意義上說,機(jī)器人不是具有生命的自然人,也區(qū)別于具有自己獨立意志并作為自然人集合體的法人。若企圖以機(jī)器人的行為過失定罪于AI本身,確實行之過早。

2.算法的歧視會有失公平

人工智能在判斷上失誤的一個指責(zé),是它經(jīng)常會 “歧視”。使用最先進(jìn)圖像識別技術(shù)的谷歌曾經(jīng)陷入“種族歧視”的指責(zé),只因它的搜索引擎會將黑人打上“猩猩”的標(biāo)簽;而搜索“不職業(yè)的發(fā)型”,里面絕大多數(shù)是黑人的大辮子。哈佛大學(xué)數(shù)據(jù)隱私實驗室教授拉譚雅·斯維尼發(fā)現(xiàn),在谷歌上搜索有“黑人特征”的名字,很可能彈出與犯罪記錄相關(guān)的廣告——來自谷歌智能廣告工具Adsense給出的結(jié)果。

而這種危險并不僅僅是“另眼相看”本身——畢竟將一張黑人的照片打上“猩猩”的標(biāo)簽,只是有點冒犯罷了。而人工智能的決策正走入更多與個人命運切實相關(guān)的領(lǐng)域,切實影響著就業(yè)、福利以及個人信用,我們很難對這些領(lǐng)域的“不公平”視而不見。

同樣,隨著AI入侵招聘領(lǐng)域、金融領(lǐng)域、智能搜索領(lǐng)域等等,我們所訓(xùn)練出來的“算法機(jī)器”是否能夠真正的萬無一失。在求賢若渴的當(dāng)代社會,算法是否能夠幫助公司選出千里挑一的那個人,這都有待考究。

那么,歧視的來源是哪里?是打標(biāo)簽者的別有用心,是數(shù)據(jù)擬合的偏差,還是程序設(shè)計哪里出了bug?機(jī)器所計算出的結(jié)果,能為歧視、不公、殘酷提供理由嗎?這些都是值得商榷的問題。

3.數(shù)據(jù)保護(hù)是AI倫理的底線

網(wǎng)絡(luò)空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在這里,人類實現(xiàn)了與肉體分離的“數(shù)字化生存”,擁有了“數(shù)字化人格”。所謂數(shù)字化人格就是“通過個人信息的收集和處理勾畫一個在網(wǎng)絡(luò)空間的個人形象”——即憑借數(shù)字化信息而建立起來的人格。

而在AI環(huán)境中,基于互聯(lián)網(wǎng)和大數(shù)據(jù)的支持,其擁有著用戶大量的使用習(xí)慣和數(shù)據(jù)信息。如果說“過往數(shù)據(jù)”的積累是機(jī)器作惡的基礎(chǔ)的話,那么資本力量的驅(qū)動則是更深層次的原因。

Facebook信息泄露事件中,一家名為劍橋分析(Cambridge Analytica)的公司使用人工智能技術(shù),針對任意一個潛在選民的“心理特征”投放付費政治廣告;而投什么樣的廣告,取決于一個人的政治傾向、情緒特征、以及易受影響的程度。很多虛假的消息在特定人群中能夠迅速傳播、增加曝光,并潛移默化地影響人們的價值判斷。技術(shù)主使克里斯托弗·威利最近向媒體揭發(fā)了這個人工智能技術(shù)的“食糧”來源——以學(xué)術(shù)研究為名,有意攫取的5000多萬用戶數(shù)據(jù)。

退而言之,即使不存在數(shù)據(jù)泄露問題,對用戶數(shù)據(jù)的所謂“智能挖掘”也很容易游走在“合規(guī)”但“有違公平”的邊緣。至于AI倫理的邊界,信息安全成為每一個互聯(lián)網(wǎng)時代下“信息人”的最基本底線。

反思

在最近大火的一段關(guān)于AI倫理的視頻中,藝術(shù)家Alexander Reben沒有任何動作,但是通過語音助手下達(dá)命令:“OK Google,開槍。”

然而,不到一秒的轉(zhuǎn)瞬之間,Google Assistant扣動了一部手槍的扳機(jī),擊倒了一顆紅蘋果。隨即,蜂鳴器發(fā)出刺耳的嗡嗡聲。

嗡嗡聲響徹雙耳。

是誰開槍擊到了蘋果?是AI還是人類?

在這個視頻中,Reben告訴AI開槍。Engadget在報道中說,如果AI足夠智能以預(yù)測我們的需求,或許有一天AI會主動除掉那些讓我們不開心的人。Reben說,討論這樣一個裝置,比是否存在這樣一個裝置更重要。

人工智能不是一個可預(yù)測的、完美的理性機(jī)器,他的倫理缺陷由算法、人們使用的目標(biāo)和評估。但是,至少從目前來看,機(jī)器依然是人類實然世界的反應(yīng),而不是“應(yīng)然世界”的指導(dǎo)和先驅(qū)。

顯然,守住AI倫理的底線,人類才不會走到“機(jī)器暴政”的那一天。

附:谷歌的“七條準(zhǔn)則”

1.有益于社會

2.避免創(chuàng)造或增強偏見

3.為保障安全而建立和測試

4.對人們有說明義務(wù)

5.整合隱私設(shè)計原則

6.堅持高標(biāo)準(zhǔn)的科學(xué)探索

7.根據(jù)原則確定合適的應(yīng)用

【完】

智能相對論:深挖人工智能這口井,評出咸淡,講出黑白,道出深淺。重點關(guān)注領(lǐng)域:AI+醫(yī)療、機(jī)器人、智能駕駛、AI+硬件、物聯(lián)網(wǎng)、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機(jī)交互等。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
谷歌
ai技術(shù)
馬斯克刪推特賬號

相關(guān)文章

  • Figma股價熱情僅存1天,AI焦慮成關(guān)鍵隱憂?

    文/道哥美國設(shè)計軟件公司Figma近期在紐約證券交易所掛牌上市,首日即上演“狂飆”行情——發(fā)行價定每股33美元,開盤報價85美元,較發(fā)行價翻倍。首日收報115.50美元,較發(fā)行價大漲約250%,市值飆升至近670億美元,創(chuàng)下近30年來同等規(guī)模美股IPO的最大單日漲幅紀(jì)錄。然而,隨著短線資金獲利了結(jié),

    標(biāo)簽:
    ai智能
  • 人類首屆機(jī)器人運動會:跑歪了+撞人了+打哆嗦,但我卻看到了中國智造的未來

    8月16日,盧松松非常榮幸的成為了一名《2025世界人形機(jī)器人運動會》的觀眾。這是一場超酷的機(jī)器人運動會,也是人類給機(jī)器人辦的第一屆奧運會,來自16個國家的280支隊伍會參加500多個比賽項目??戳艘惶斓谋荣?,晚上就回來寫文章,編輯短視頻。先說感悟:(1)這是人類首次給機(jī)器人辦的第一屆運動會,史無前

    標(biāo)簽:
    智能機(jī)器人
  • AI「帶飛」騰訊業(yè)績

    文/一燈來源/節(jié)點財經(jīng)在當(dāng)前無人敢缺席的AI軍備競賽中,巨頭們一面為巨額的資本支出焦慮,一面又向市場勾勒著未來的宏偉藍(lán)圖。在各家動輒千億級投入的背景下,市場迫切需要一份關(guān)于AI回報價值的有力證明。而騰訊,率先給出了答卷。8月13日,騰訊控股發(fā)布2025年第二季度財報。盡管資本開支同比劇增119%,達(dá)

    標(biāo)簽:
    ai智能
    騰訊
  • Meta用億元薪酬發(fā)起「人才狙擊」能否買來一個AI未來?

    文/二風(fēng)來源/節(jié)點財經(jīng)2025年的硅谷,一場沒有硝煙的戰(zhàn)爭正以前所未有的烈度上演。這場戰(zhàn)爭的核心武器不是代碼或芯片,而是人——那些全球僅有數(shù)千名、能夠構(gòu)建未來人工智能基礎(chǔ)模型的頂尖大腦。在這場激烈的人才爭奪戰(zhàn)中,Meta及其首席執(zhí)行官馬克·扎克伯格(MarkZuckerberg)正扮演著最具侵略性的

    標(biāo)簽:
    ai智能
  • 騰訊AI夢:克制的雄心

    關(guān)乎14億用戶的深刻變化

    標(biāo)簽:
    ai智能
  • 阿里媽媽、巨量引擎、騰訊廣告,誰是當(dāng)代“AI印鈔機(jī)”?

    阿里媽媽、巨量引擎、騰訊廣告,誰是當(dāng)代“AI印鈔機(jī)”?

編輯推薦