人工智慧倫理學的一知半解

  • 2020 年 2 月 17 日
  • 筆記

讀MBA時候的授業導師是周教授,周教授有一門頗受學生們歡迎的課程是「企業倫理學」。時隔多年,課本的內容已經還給了學校,但周老師課上的一些話還隱約記得。

倫理學是關於道德問題的科學,是將道德思想觀點的系統化和理論化。解決的基本問題只有一個,就是道德和利益的關係問題。對這一基本問題的答案決定著各種道德體系的原則,也決定著各種道德活動的評判標準。

由人組成的組織在進行經營活動時,在本質上始終存在著倫理問題。所以,企業倫理是企業經營本身的倫理。

AI倫理的提出

在中國,明確提出AI倫理原則的人可能是百度的創始人李彥宏。2018年5月26日,他在貴陽大數據博覽會上指出,所有的AI產品、技術都要有大家共同遵循的理念和規則:

  1. AI 的最高原則是安全可控;
  2. AI 的創新願景是促進人類更加平等地獲得技術能力;
  3. AI 存在的價值是教人學習,讓人成長,而不是取代人、超越人;

AI的終極理想是為人類帶來更多的自由和可能。

同樣是2018年,微軟發表了《未來計算》(The Future Computed)一書,其中提出了開發人工智慧的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任。

首先是公平性,是指不同區域的人、不同等級的人在AI面前是平等的,不應該有人被歧視。

第二是可靠性和安全性,指的是人工智慧使用起來是安全、可靠、不作惡的。

第三是隱私和保障,因為涉及到數據,所以總是會引起個人隱私和數據安全方面的問題。

第四是必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。

第五是透明度。在過去,人工智慧領域突飛猛進最重要的一個技術就是深度學習,深度學習模型的準確度是幾乎所有機器學習模型中最高的,但在這裡存在一個是否透明的問題。透明度和準確度無法兼得,只能在二者權衡取捨,如果準確度更高,可能要犧牲一定的透明度。

第六是問責。問責制是一個非常有爭議的話題,涉及到一個法律或者立法的問題。如果是機器代替人來進行決策、採取行動出現了不好的結果,到底是誰來負責?不能讓機器或者人工智慧系統當替罪羊,人必須是承擔責任的。

實際上,大約在1950年,科幻作家阿西莫夫就提出了 「機器人三定律」:

第一,不傷害定律:機器人不得傷害人類,也不得見人受到傷害而袖手旁觀。

第二,服從定律:機器人必須服從人的命令,但不得違反第一定律。

第三,自保定律:機器人必須保護自己,但不得違反一、二定律。

這三條定律在製造機器人的伊始便被嵌入其大腦,永遠無法消除。

這些都涉及了一定的倫理問題, 都還都是些概要性原則,較完善地提出AI 倫理與價值的可能是阿西洛馬人工智慧原則了。

阿西洛馬人工智慧原則

2017年1月初舉行的「Beneficial AI」會議,在此基礎上建立起來的「阿西洛馬人工智慧原則」,名稱來自此次會議的地點——美國加州的阿西洛馬(Asilomar)市,旨在確保AI為人類利益服務。

西洛馬人工智慧原則的第6至18條,指出了人工智慧的倫理和價值:

6) 安全性:人工智慧系統在它們整個運行過程中應該是安全和可靠的,而且其可應用性的和可行性應當接受驗證。

7) 故障透明性:如果一個人工智慧系統造成了損害,那麼造成損害的原因要能被確定。

8)司法透明性:任何自動系統參與的司法判決都應提供令人滿意的司法解釋以被相關領域的專家接受。

9)責任:高級人工智慧系統的設計者和建造者,是人工智慧使用、誤用和行為所產生的道德影響的參與者,有責任和機會去塑造那些道德影響。

10)價值歸屬:高度自主的人工智慧系統的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致。

11)人類價值觀:人工智慧系統應該被設計和操作,以使其和人類尊嚴、權力、自由和文化多樣性的理想相一致。

12)個人隱私:在給予人工智慧系統以分析和使用數據的能力時,人們應該擁有權力去訪問、管理和控制他們產生的數據。

13)自由和隱私:人工智慧在個人數據上的應用不能充許無理由地剝奪人們真實的或人們能感受到的自由。

14)分享利益:人工智慧科技應該惠及和服務儘可能多的人。

15) 共同繁榮:由人工智慧創造的經濟繁榮應該被廣泛地分享,惠及全人類。

16)人類控制:人類應該來選擇如何和決定是否讓人工智慧系統去完成人類選擇的目標。

17)非顛覆:高級人工智慧被授予的權力應該尊重和改進健康的社會所依賴的社會和公民秩序,而不是顛覆。

18)人工智慧軍備競賽:致命的自動化武器的裝備競賽應該被避免。

共有23條準則,旨在確保人類在新技術出現時能順利規避其潛在的風險,其突出核心成員有Stephen Hawking和Elon Musk。這個組織專註於由新技術和問題構成的潛在威脅,如人工智慧、生物技術、核武器和氣候變化等。

AI 倫理學?

實際上,很多倫理問題連人類自身都沒有解決,由人類定義的倫理邏輯是否存在漏洞呢?微不足道的漏洞,在人工智慧發展到一定程度後卻可能成為壓倒整個倫理系統的稻草。

對於功利主義者而言,「以人類為中心」將是發展人工智慧的重要倫理依據:必要的領域應該限制機器的智慧超過人類的智慧,即使將來某一天超過了,掌握權還要在人類的手中。但是這種「物我兩分」的價值觀,本質上是一種「主奴思想」。在人工智慧可能超過人類的語境下,可能並不是最好的解決方案。倘若人類真的要在人工智慧這條路上走下去,將倫理的判斷完全掌握在人類手中或是全權交給「更智慧」的人工智慧都是不可行的;將人類自身與人工智慧放到統一的維度去審視,方能產生一個相較而言最為完善的人工智慧倫理關係。

另外,妥善處理人工智慧與人類之間可能產生的情感與羈絆,也是人工智慧倫理研究的重要一環。

在國外,MIT媒體實驗室(MIT Media Lab)和哈佛大學伯克曼克萊恩互聯網及社會研究中心(Berkman Klein Center)共同成為了「人工智慧倫理和監管基金」的管理機構,用於解決人工智慧所帶來的人文及道德問題。

現在,人工智慧技術在我們生活的各個方面都變得越來越有用。它們存在於我們的智慧手機、社交網路、家庭智慧音箱、私人交通工具ーー只要你能想到的,就有人工智慧在某處工作。就像任何新興的技術一樣,需要充分利用這些AI技術; 同時確保人工智慧在道德和收益上有益於所有人。

人工智慧倫理學可能會發展成一門學科,可能要解決以下的一些問題:

  • 人性: 機器如何影響人們的行為和互動?
  • 不平等: 人們如何分配機器創造的財富?
  • 失業: 人們在沒有工作後會發生什麼?
  • 安全: 人們如何保護AI不受敵人侵擾?
  • ……

在建立AI體系時需要考慮的一些倫理要點

現在,可能需要企業和政府介入並幫助解決這些問題,確定指導行業內的AI倫理原則,最終幫助確保AI技術的安全性和可持續性,能夠發揮AI 的潛力。

在建立AI倫理和AI經濟時需要考慮的五個要點——

1: 引入人工智慧的公司治理和道德框架

對於支援AI倫理的人工智慧經濟而言,第一步是制定關鍵原則,以維護該技術的道德使用。企業應起草或修訂企業政策,納入新技術的道德使用立場,概述其業務模式所特有的問責措施。公司還需在組織的各個層面建立明確的期望,使AI倫理成為整個公司討論中的一部分,從董事會會議和員工績效評估,到非正式管理和員工簽到。

在政府層面,官員應該注意監管機構在指導實施AI倫理方面的作用。決策者應直接與行業專家合作,熟悉人工智慧的技術構成、潛在的安全風險和現實世界的應用程式,然後再啟動正式的調研方案。

2: 揭開人工智慧的神秘面紗和關於其責任的問題

為了揭開人工智慧的神秘面紗和圍繞問責制,企業應該首先承認實施該技術的任何潛在風險,並制定在部署之前和使用之後進行AI測試的戰略。在制定這些策略時,公司應該與外部專家一起探討人工智慧的問責制如何適用於特定的企業目標和客戶需求。

政府官員應該認識到在採取措施促進問責制和允許人工智慧創新之間的動態平衡。找到這種平衡將有助於保持技術及其用戶的誠實和透明度,因為新政策仍然在制定之中。

3: 建立人們對企業人工智慧的信任

作為一個企業,在使用人工智慧時,必須儘可能保持透明。在向利益相關者介紹這一想法時,企業必須分享技術的預期目的以及認為在他們的組織中採用這一想法的重要原因。商業領袖需要通過制定培訓和認證方案,明確界定使用人工智慧的標準,並應公開說明為界定這些最佳實踐而採取的措施,特別是為檢驗技術缺陷而採取的任何步驟。

政府可以通過尋找機會,讓公眾參與正在進行的討論,解決民眾關注的問題,並介紹今後的考慮因素,從而建立對企業AI的信任。此外,通過政府來提高民眾的認識,政府可以努力減少公眾對於在工作和日常生活中使用AI的某些抑制。

4: 將人工智慧引入勞動力隊伍

為了鼓勵將人工智慧納入勞動力隊伍,企業應投資於對自動化技術相互作用的工作人員進行再培訓。為了最大限度地利用這種培訓,公司可以給人力資源部門提供未來技能需求所需的數據,這樣他們就能準確地知道什麼樣的工具可以武裝當前和未來的員工隊伍,從而取得成功。

5: 需要為年輕學生制定數字教育方案

最後,企業和政府都應該支援針對年輕學生的AI教育項目,幫助確保下一代人能夠運用人工智慧,理解更廣泛的倫理問題。在一個理想的世界裡,學生完成教育後,預測圍繞人工智慧技術的使用的道德框架和原則,他們將理解問責制,並反過來期望公司具有透明度。只要企業、政府和行業參與者共同努力,為AI倫理奠定適當的基礎,這一切就可以實現。

AI倫理學,可能還處於一知半解的狀態里,都在路上。

參考資料:

  • 周衛中. 企業社會責任的五大認識誤區[J]. 企業管理(5):102-104.
  • 王景峰, 周衛中, WANGJing-feng, et al. 偽社會責任的界定與形式轉化研究[J]. 技術經濟與管理研究, 2015(7):57-61.
  • How Enterprises Can Help Build Ethical AI Strategies By: Chris Preimesberger, eWEEK | October 08, 2018
  • Michael Irving, 陳亮. 阿西洛馬23原則使AI更安全和道德[J]. 機器人產業, 13(2):14-17.
  • 阿西洛馬人工智慧原則——馬斯克、戴米斯·哈薩比斯等確認的23個原則,將使AI更安全和道德[J]. 智慧機器人(1):28-29.
  • 張雪嬌. 阿西莫夫對機器人世界的倫理凝視[D]. 華中師範大學, 2015.
  • 杜靜, 黃榮懷, 李政璇, et al. 智慧教育時代下人工智慧倫理的內涵與建構原則[J]. 電化教育研究, 2019(7).