1. 創(chuàng)業(yè)頭條
  2. 前沿領域
  3. AI智能
  4. 正文

Google再與軍方合作,AI倫理的邊界在哪里?

 2018-06-09 15:59  來源:A5專欄  我來投稿 撤稿糾錯

  阿里云優(yōu)惠券 先領券再下單

文|柯鳴

來源|

智能相對論

故事要從今年三月初說起。

今年三月,Google被爆料已經與美國國防部(五角大樓)達成合作,幫助后者開發(fā)應用于無人機的人工智能系統(tǒng),項目代號Project Maven。

消息一出,瞬間風起云涌,谷歌員工表達了對此項目的強烈不滿。有員工認為Google在為五角大樓開放資源,助紂為虐般地幫助后者打造無人機監(jiān)控技術;還有一部分人質疑Google如此使用機器學習技術是否符合道德標準,他們認為五角大樓會將這一技術用于殺傷性武器,進而帶來技術樂觀派們從未想要造成的傷害。

隨后,谷歌超過3100名員工聯名請愿,上書CEO桑達爾·皮查伊(Sundar Pichai),表達抗議。

Google再與軍方合作,AI倫理的邊界在哪里?2.jpg

谷歌員工*Sundar Pichai

事情到四月底進一步發(fā)酵。有媒體發(fā)現,Google刪掉了其沿用十八年的座右銘“Don't be evil”在公司行為守則開頭中的三處強調。僅在準則的結尾,還留有未被刪掉的一句:“記住,don't be evil,如果你看到了一些你認為不正確的事情,大聲說出來!”

上周五,在每周一次的“天氣預報”例會上,Google Cloud首席執(zhí)行官黛安·格林(Diane Greene)宣布,Google將在這次合約到期后結束與美國國防部的合作的Project Maven

這無疑是一件大事。“勝利的消息”在谷歌內部瘋傳。隨著一篇篇報道的蜂擁而出,這件事情似乎暫時以谷歌“向員工妥協、停止與國防部續(xù)約”的方式得以落幕。

但就在今天,谷歌CEO Sundar Pichai發(fā)表了署名題為《AI at Google:our principles》的文章,列出7大指導原則,并指出谷歌并不會終止與美軍的合作。谷歌的反轉讓人唏噓,雖然其明確了“不會追求的AI應用”,但技術作惡還是人作惡的問題,AI倫理再次引人深思。

AI倫理的邊界在哪里?

如果說谷歌近期來不太平,那么亞馬遜Alexa的日子也不好過。

亞馬遜的Echo設備被指控未經許可將私人對話錄音,并將音頻發(fā)送給用戶聯系人列表中的隨機一位人士。這距離上次Alexa被爆出“嘲笑人類”事件的嚇人事件,還沒過過去多久。

Amazon對Alexa一事的回應

這可遠遠不是個例。早在2016年,一個人設為19歲少女、名為Tay的聊天機器人在推特上線。這個微軟開發(fā)的人工智能采用了自然語言學習技術,能夠通過抓取和用戶互動的數據,處理并模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay就被“調教”成了一個滿口叫囂著種族清洗、粗野不堪的極端分子,微軟只好以“系統(tǒng)升級”為由將其下架。

Google再與軍方合作,AI倫理的邊界在哪里?5.jpg

微軟機器人Tay的極端言論

這著實讓人細思極恐。智能相對論分析師柯鳴認為,隨著AI弊病的凸顯,AI倫理問題也將日益得到重視。AI倫理的邊界到底在哪里?首先應該明確幾個問題。

1.機器人是否成為民事主體?

隨著人工智能技術的快速發(fā)展,機器人擁有越來越強大的智能。機器與人類之間的差距也逐漸縮小,未來出現的機器人將擁有生物大腦,甚至可以與人類大腦的神經元數量相媲美。美國未來美國未來學家甚至預測:在本世紀中葉,非生物智能將會10億倍于今天所有人的智慧。

公民身份似乎已經不再成為機器人的難題。去年十月,世界首個獲得公民身份的機器人索菲亞誕生,這也意味著人類的創(chuàng)造物擁有了和人類等同的身份,以及其身份背后所擁有的權利、義務、和社會地位。

而法律上的民事主體資格依然是AI倫理的分界線。在過去的一段時期,美英等國的哲學家、科學家包括法律家都為此開展過激烈的爭論。2016年,歐盟委員會法律事務委員會向歐盟委員會提交動議,要求將最先進的自動化機器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權利和義務”外,還建議為智能自動化機器人進行登記,以便為其進行納稅、繳費、領取養(yǎng)老金的資金賬號。該項法律動議如獲通過,無疑使得傳統(tǒng)的民事主體制度產生動搖。

從嚴格意義上說,機器人不是具有生命的自然人,也區(qū)別于具有自己獨立意志并作為自然人集合體的法人。若企圖以機器人的行為過失定罪于AI本身,確實行之過早。

2.算法的歧視會有失公平

人工智能在判斷上失誤的一個指責,是它經常會 “歧視”。使用最先進圖像識別技術的谷歌曾經陷入“種族歧視”的指責,只因它的搜索引擎會將黑人打上“猩猩”的標簽;而搜索“不職業(yè)的發(fā)型”,里面絕大多數是黑人的大辮子。哈佛大學數據隱私實驗室教授拉譚雅·斯維尼發(fā)現,在谷歌上搜索有“黑人特征”的名字,很可能彈出與犯罪記錄相關的廣告——來自谷歌智能廣告工具Adsense給出的結果。

而這種危險并不僅僅是“另眼相看”本身——畢竟將一張黑人的照片打上“猩猩”的標簽,只是有點冒犯罷了。而人工智能的決策正走入更多與個人命運切實相關的領域,切實影響著就業(yè)、福利以及個人信用,我們很難對這些領域的“不公平”視而不見。

同樣,隨著AI入侵招聘領域、金融領域、智能搜索領域等等,我們所訓練出來的“算法機器”是否能夠真正的萬無一失。在求賢若渴的當代社會,算法是否能夠幫助公司選出千里挑一的那個人,這都有待考究。

那么,歧視的來源是哪里?是打標簽者的別有用心,是數據擬合的偏差,還是程序設計哪里出了bug?機器所計算出的結果,能為歧視、不公、殘酷提供理由嗎?這些都是值得商榷的問題。

3.數據保護是AI倫理的底線

網絡空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在這里,人類實現了與肉體分離的“數字化生存”,擁有了“數字化人格”。所謂數字化人格就是“通過個人信息的收集和處理勾畫一個在網絡空間的個人形象”——即憑借數字化信息而建立起來的人格。

而在AI環(huán)境中,基于互聯網和大數據的支持,其擁有著用戶大量的使用習慣和數據信息。如果說“過往數據”的積累是機器作惡的基礎的話,那么資本力量的驅動則是更深層次的原因。

Facebook信息泄露事件中,一家名為劍橋分析(Cambridge Analytica)的公司使用人工智能技術,針對任意一個潛在選民的“心理特征”投放付費政治廣告;而投什么樣的廣告,取決于一個人的政治傾向、情緒特征、以及易受影響的程度。很多虛假的消息在特定人群中能夠迅速傳播、增加曝光,并潛移默化地影響人們的價值判斷。技術主使克里斯托弗·威利最近向媒體揭發(fā)了這個人工智能技術的“食糧”來源——以學術研究為名,有意攫取的5000多萬用戶數據。

退而言之,即使不存在數據泄露問題,對用戶數據的所謂“智能挖掘”也很容易游走在“合規(guī)”但“有違公平”的邊緣。至于AI倫理的邊界,信息安全成為每一個互聯網時代下“信息人”的最基本底線。

反思

在最近大火的一段關于AI倫理的視頻中,藝術家Alexander Reben沒有任何動作,但是通過語音助手下達命令:“OK Google,開槍。”

然而,不到一秒的轉瞬之間,Google Assistant扣動了一部手槍的扳機,擊倒了一顆紅蘋果。隨即,蜂鳴器發(fā)出刺耳的嗡嗡聲。

嗡嗡聲響徹雙耳。

是誰開槍擊到了蘋果?是AI還是人類?

在這個視頻中,Reben告訴AI開槍。Engadget在報道中說,如果AI足夠智能以預測我們的需求,或許有一天AI會主動除掉那些讓我們不開心的人。Reben說,討論這樣一個裝置,比是否存在這樣一個裝置更重要。

人工智能不是一個可預測的、完美的理性機器,他的倫理缺陷由算法、人們使用的目標和評估。但是,至少從目前來看,機器依然是人類實然世界的反應,而不是“應然世界”的指導和先驅。

顯然,守住AI倫理的底線,人類才不會走到“機器暴政”的那一天。

附:谷歌的“七條準則”

1.有益于社會

2.避免創(chuàng)造或增強偏見

3.為保障安全而建立和測試

4.對人們有說明義務

5.整合隱私設計原則

6.堅持高標準的科學探索

7.根據原則確定合適的應用

【完】

智能相對論:深挖人工智能這口井,評出咸淡,講出黑白,道出深淺。重點關注領域:AI+醫(yī)療、機器人、智能駕駛、AI+硬件、物聯網、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機交互等。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關文章

  • 甌江論道:AI賦能綠色發(fā)展

    2025年10月25日,2025世界青年科學家峰會之人工智能(AI)融合創(chuàng)新發(fā)展論壇在浙江溫州成功舉辦。本次論壇由國際院士科創(chuàng)中心主辦,中國投資協會能源投資專業(yè)委員會、溫港院士科創(chuàng)中心承辦,中國電工技術學會、中科先進技術溫州研究院與溫州市電力工程學會提供支持,以“甌江論道-AI賦能綠色發(fā)展”為主題,

    標簽:
    ai技術
  • 王通:未來個人創(chuàng)業(yè)的十個機會

    個人創(chuàng)業(yè)需要啟動成本低、無需龐大團隊、可快速驗證、能利用個人技能或資源。這里分享適合個人創(chuàng)業(yè)的十個機會一.AI內容優(yōu)化與本地化服務·做什么:幫助企業(yè)或個人利用AI工具(如GPT-4,Midjourney)優(yōu)化內容生產流程。例如,為跨境電商撰寫多語言產品描述,為小紅書博主生成爆款文案,為小公司制作營銷

  • 百度智能云PaddleOCR 3.1正式發(fā)布:關鍵能力支持MCP

    百度AI團隊今日正式推出PaddleOCR3.1版本,以突破性的多語言組合識別(MultilingualCompositionPerception,MCP)技術為核心,徹底重構復雜文檔處理邊界。此次升級標志著OCR領域首次實現對同一文檔內任意混合語言文本的精準識別,為全球化企業(yè)、跨境業(yè)務及多元文化場

    標簽:
    ai智能
    ai技術
  • AI工具導航網站,未來的發(fā)展前景怎么樣?

    導航網站的崛起:從信息過載到精準觸達隨著全球AI工具數量爆發(fā)式增長(2025年已超數萬款),用戶面臨前所未有的選擇困境。傳統(tǒng)搜索引擎的“關鍵詞-鏈接”模式難以應對工具篩選的場景需求,垂直化、場景化的AI導航網站應運而生。這類平臺通過聚合、評測、分類與推薦四重機制,將分散的工具資源整合為結構化入口。例

  • 微信AI搜索被指“強行開盒”:名字成了數據入口,騰訊回應“僅用公開信息”

    當微信公眾號文章中出現一個人的名字,它會自動變成藍色鏈接,點擊即可查看AI生成的“個人簡歷”——這一微信新功能讓不少用戶感到被“扒光”在互聯網上。近日,微信新上線的“AI搜索”功能陷入隱私泄露爭議漩渦。多位網友在社交平臺反映,當微信公眾號推文中出現本人姓名時,名字會自動變?yōu)樗{色超鏈接,點擊即可瀏覽由

    標簽:
    ai技術
    ai搜索
  • 弈動 Dynamic·數智躍遷 博弈無界|2025TechWorld智慧安全大會在京召開

    在數字化與智能化深度交織的時代浪潮中,安全的邊界不斷延展,技術的演進正引領產業(yè)邁向新一輪變革。10月24日,以“弈動Dynamic·數智躍遷博弈無界”為主題的2025TechWorld智慧安全大會在北京盛大召開。來自國家部委、院士學者、高??蒲袡C構和企業(yè)的權威專家與業(yè)界精英齊聚北京,共議AI安全、數

    標簽:
    弈動
  • 甌江論道:AI賦能綠色發(fā)展

    2025年10月25日,2025世界青年科學家峰會之人工智能(AI)融合創(chuàng)新發(fā)展論壇在浙江溫州成功舉辦。本次論壇由國際院士科創(chuàng)中心主辦,中國投資協會能源投資專業(yè)委員會、溫港院士科創(chuàng)中心承辦,中國電工技術學會、中科先進技術溫州研究院與溫州市電力工程學會提供支持,以“甌江論道-AI賦能綠色發(fā)展”為主題,

    標簽:
    ai技術
  • AI云“分野”:阿里云們“賣鏟”,火山引擎奇襲“MaaS”

    AI云“分野”:阿里云們“賣鏟”,火山引擎奇襲“MaaS”

    標簽:
    阿里巴巴
  • 未來5年,中國AI的“大洗牌”和“內循環(huán)”

    我覺得我們AI的目標是:從芯片設計到軟件生態(tài),全鏈路自主開發(fā),建立可控的世界級AI體系。所以這是俺對未來5年中國AI圈的展望和判斷。(1)2026年,英偉達造車、國產開車26年國產芯片會在推理和垂直場景上發(fā)力。以DeepSeek為代表,大多數AI大模型會以軟件彌補硬件不足,所以訓練和推理分開,訓練就

  • H20芯片開賣即叫停,英偉達如何解圍?

    文/道哥在深陷“后門”風波、接受網信辦問詢之后,英偉達的“特供版”H20芯片,又有了新消息。近日,美國科技媒體《TheInformation》援引知情人士消息稱,英偉達已悄然向其關鍵供應商——包括負責封裝的安靠科技、供應高帶寬內存的三星電子、以及承擔后端處理的富士康發(fā)出指令,要求暫停所有與H20AI

    標簽:
    英偉達
  • 真正的「國產英偉達」來了

    文/二風來源/節(jié)點財經一場關于“中國芯”的IPO審議,正把投資者們的目光鎖定在上交所。根據上交所發(fā)布的公告,上市審核委員會已定于9月26日審議摩爾線程的科創(chuàng)板首發(fā)申請。作為中國半導體自主化浪潮中最受矚目的“考生”之一,包括其創(chuàng)始人顯赫的英偉達背景、高達80億元人民幣的募資雄心,以及在國產GPU領域取

    標簽:
    英偉達