技術
首頁  >  技術  >  技術要聞

人工智能的道德拷問與對標:亟待制定規則建立監管

2019-10-08  來源:證券時報  作者:張銳

鑒于美國、以色列、韓國、俄羅斯和英國等國都在發展智能機器人武器系統,微軟公司總裁史密斯日前明確表示,“殺手機器人”的出現未來將無法避免,人類社會應該有一個新的“數字《日內瓦公約》”也就是一套道德標準來約束與引導人工智能(AI)的發展。

史密斯的判斷并不是危言聳聽,并且人工智能引發的道德問題也不僅僅存在于武器系統方面,而是輻射到了公眾社交生活的各個層面,只不過由于對AI的變革與創新能量存在著獵奇心態與“暈輪效應”,人們往往忽視了AI道德的重要性。拿不久前世界人工智能大會上ZAO推出的“AI換臉App”為例,用戶只需要一張正臉照,就可以替換為影視作品的人物,生成以自己為主角的視頻片段,結果,這款App一夜之間火爆全網,在贏得用戶尖叫的同時,支持App的服務器陷入癱瘓。可是,成功換臉贏得了片刻的刺激與興奮之后,相信所有的用戶都會因綁在自己身上的ZAO協議而惴惴不安。

根據ZAO的用戶協議:用戶上傳發布內容后,意味著“同意或確保肖像權利人授予‘ZAO’及其關聯公司全球范圍內完全免費、不可撤銷、永久、可轉授權和可再許可的權利”,而且“侵權了明星肖像,若對方提告,最后責任都在用戶”,就此,我們對用戶提出以下問題:被換臉的明星如果提出訴訟,你是否還會鎮定自如?如果有人就此制作虛假視頻并栽贓于你,你是否會義憤填膺?你的人臉被用于刷臉支付,你是否會忐忑不安乃至驚慌失措?如果就這些問題得出了肯定性答案,相信每一個人都不會對AI道德問題熟視無睹。

其實,類似“換臉App”引起的AI道德拷問已經不計其數。不久前,Deep Nude 推出一款“一鍵脫衣”軟件,用戶只需在該程序上添加一張照片,App便可以自動“脫掉”女性身上的衣服。在這款軟件中,女性無疑成為了最大受害者;還比如斯坦福大學運用AI算法,通過照片便可識別誰是同性戀,黑灰產能夠通過AI技術偽造錄制場景,保險公司利用臉書數據預測事故發生率就可拒絕用戶投保等等,AI突破道德底線并且淪為作惡的工具已經超過了人們的想象,甚至用技術在狂奔,道德在退步來形容一點也不為過。

對于AI所觸發的道德問題,目前形成的一種主流判斷是,技術無罪但操控技術的人一定有過。按照墨菲定理,如果一件事情有可能出錯,它就一定會出錯。也就是說,如果做某項工作有多種方法,而其中有一種方法必然導致錯誤,那么一定有人會按這種方法去做。一項針對1010名英國科技工作者的研究發現,90%的人認為科技是一種正能量,但59%在人工智能領域工作的人表示,他們從事的項目可能對社會有害,18%的人因為倫理道德問題而辭職。對此,我們想強調的是,盡管AI違背或者踐踏道德也只是少數技術操作者的行為,也就是墨菲定理所指的個別人犯錯,但這種錯誤又極易被更多人所模仿,而且借助網絡傳播的力量無限放大,最終造成的社會危害程度也無法估量。

但是,如何平衡AI創新與AI道德的確又是一個非常棘手的難題。對于人類社會而言,我們不僅無法抵擋AI的誘惑,而且需要更多的創新成果來提供貼近生產與生活的各種服務,這就需要企業不斷地尋求突破,但是,如果套上更多的條條框框,又勢必抑制與捆綁AI 探索的腳步與空間。拿AI的基礎數據為例,用戶的身份、職業、年齡等以及閱讀、購物等行為偏好,都是優化推薦算法的關鍵依據,科技公司獲取的隱私數據越多,就越能讓AI的服務更精確地貼合公眾需求,同時利于商業主體精準發力。但如果注入了道德元素,數據的限制與缺失不僅會使AI的服務功能大打折扣,同時會面臨著資本的反制與遺棄,也正是如此,幾乎沒有哪一家科技公司希望自己在獲取用戶數據方面受到約束。雖如此,我們還是要強調,任何創新的閘門并不是不可以把控的,人類既然能夠讓機器變得非常智慧,同樣也可讓它行走在指定的路徑與劃定的邊界之內,比如一件AI可在哪些場景下使用,以及使用越界時的自動糾正功能等,這樣,無論機器具有怎樣的學習天賦,我們都可以讓它在決策時像人一樣在感知是非善惡的前提下正確行事。

顯然,基于創新與發展的需要,不能因為AI的局部不道德而對其實施簡單而粗暴的管制,甚至一禁了之。同時,要引導AI變得有道德,首先須讓科技公司變成道德主體。對于科技企業來說,科技向善應當成為其恪守與貫徹的道德底線,為人類創造福祉并驅動社會發生積極變革應當成為其存在與發展的最高圭臬。對此,所有的AI 企業都有必要像微軟成立人工智能倫理道德委員會那樣,創建由工程師、科學家、律師和公司領導組成的監管機構,負責對每一款AI產品的道德倫理風險評估以及運行內外部審查和實施相應的改進機制,保證產品在開發過程中就有成色厚重的道德元素。

相比于企業對AI的自我審查而言,行業協會是把控人工智能的第一道外部道德關口。目前,除了世界電氣電子工程師學會(IEEE)在《人工智能設計的倫理準則》中提出了人權、福祉、問責與透明的倫理標準外,亞馬遜、微軟、谷歌以及蘋果等全球百余家科技巨頭還創建了非營利性的人工智能合作組織Partnership on AI,提出了公平、沒有傷害、公開透明以及問責等倫理道德框架。各國各行業可以以此為參照建立自己的AI道德評價矩陣與評估流程。相對于企業自我道德評價,作為第三方的行業道德評價可以有效地克服前者在商業訴求與道德訴求上的角色沖突與結果傾斜,同時過濾企業道德評價中的不合理因素,確保AI倫理道德評估結論的公正與可信。值得強調的是,為了更廣泛地反映社會不同群體對AI道德的基本訴求,行業道德監督機構應當最大程度地吸收更多利益相關者的加入。

當然,制定AI倫理道德準則也是各國政府義不容辭的職責,而且衡量一個國家人工智能水平的高低已經不僅僅只有技術指標,道德維度也成為了各國AI競爭的新高地。最新數據顯示,美國人工智能企業數量2039家位列全球第一,中國(不含港澳臺地區)有1040家,兩國占到全球人工智能企業數的一半以上,同時全球36524位頂尖AI人才一半以上在中美。中國與美國在AI領域難分伯仲。而相比之下,歐盟感覺掉隊不少,于是便從倫理角度切入,率先推出了涵蓋人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉以及問責機制等七項內容的AI倫理道德準則。相比于歐盟,雖然我國有《網絡安全法》和《信息安全技術個人信息安全規范》,相關組織發布的《人工智能北京共識》,但在AI的道德界限以及道德標準細化方面仍有待提煉與加工,對此,完全有必要通過“頭腦風暴法”的形式邀請社會各界人士參與到人工智能道德準則的補充和完善中來。

最后需要指出的是,目前的AI道德準則更多地是針對科技公司與開發者提出的要求,但AI的使用者同樣不應該成為道德盲區。從ZAO的“AI換臉App”服務器被擠爆,到Deep Nude “一鍵脫衣”軟件遭到瘋搶,足以說明使用者在購買產品時不僅不計成本,而且存在翻越道德門檻的強烈動機,如此種種不僅對開發者的失德之舉構成有力聲援,而且勢必扭曲互聯網社交的健康軀體。為此,有必要出臺AI使用的道德與法律規則,并建立起可以監控的人工智能平臺,對所有使用不道德AI產品的用戶進行賬號管制,以此倒逼科技公司調整與校準自己的研發行為,進而讓AI道德演變成民眾信任的基礎。

(作者系中國市場學會理事、經濟學教授)

關鍵詞:AI 谷歌 對標 道德主體 監管機構

三分赛车开奖直播