黄色网站三级片,性色精品在线网站,国产很爽的超薄丝袜脚交视频,中文有码无码人妻在线

您所在的位置:首頁  專家視點

趙付春等:AI時代的AI倫理:共識達成的可能與問題的終結(jié)

日期:2024/06/13|點擊:59

古代中國是一個“萬般皆下品,唯有讀書高”的社會,盡管民眾對讀書多的人很佩服并不僅僅是因為學問,更因為讀書可以當官。

蘇軾詩云:“發(fā)奮識遍天下字,立志讀盡人間書”。好在那時天下的書其實總數(shù)不算大,只要足夠勤奮,一心讀書,這個目標理論上是有可能實現(xiàn)的。比如《永樂大典》有11095冊,約3.7億字,不過今天一個小鎮(zhèn)圖書館的容量。如果一個勤于用功的人用三十年來讀,每天只需要讀大概34000字——相當于一篇碩士論文的量,還是有可能讀完的。

那么是不是讀書讀得多、知識廣博的人,人品就更好呢?相信我們很多人對這個問題的第一反應是:荒唐!眾所周知,知識可以用來做好事,也可以為壞人所利用,把壞事做得很完美。

這正是人們當下對AI的擔憂。AI是今天的神話,也是其他新故事背后的故事,它既是開始,也可能是末世毀滅。

在機器學習、語言和圖像識別等技術(shù)的加持下,AI真正做到了無書不讀,在知識掌握方面已經(jīng)遠超人類。在其意識覺醒(通用AI出現(xiàn))之前,它其實并沒有形成自己穩(wěn)定的價值觀,簡單地說,是一個知識豐富的“白癡”。正因如此,人們有理由擔心它一旦被壞人掌握,后果不堪設(shè)想。

于是我們可以看到很多文章都是這樣開頭的:“在AI廣泛應用,給人們提供各種便利的同時,也對社會造成了負面沖擊,例如隱私保護、信息安全、責任缺位、算法歧視、社會公正等挑戰(zhàn)……”

就現(xiàn)階段而言,我們傾向于認為各種AI智能代理(Agent)仍然只是一個人造物,其行為偏好反映的是開發(fā)者的偏好,而開發(fā)者用于訓練AI代理自然是基于所在社會的主流價值觀。在一個歧視嚴重的社會中,人們所創(chuàng)造的AI代理必定是充滿歧視的。同樣,在一個不重視隱私保護的社會,AI代理在決策時也不會太介意出售別人的隱私信息。

尤其重要的是,AI代理仍然無法為自己的行為承擔責任,不具有民事或刑事行為能力。AI出了問題,我們需要追責到其背后的某個組織或個人。因此,與其說AI造成了倫理的問題,不如說AI開發(fā)者的價值觀差異制造了麻煩。

人的價值觀差異最終可溯源到人類制度和文化的深層差異,這種差異與生俱來,永無休止。因此,人類顯然無法擺脫AI倫理的問題和困境。

一種解決方案認為,盡管這種差異不可能完全消除,但在面臨某種極端的情況,比如決定不同人的生死時,還是有可能找到與國家、民族、宗教、文化無涉的普遍共識。例如自動駕駛汽車的情況。人類必須要給AI自動駕駛的行為定規(guī)則,可以從這些普遍共識出發(fā),逐步建立起符合人類生存需要的AI倫理。

圍繞這個問題,近年來科學家們開展了一系列大規(guī)模的實驗,希望從中獲得對AI倫理問題的啟示。其中較具影響力的當屬以MIT媒體實驗室的Awad教授為首的美、加、法多國合作的研究團隊。他們以經(jīng)典“電車難題”(Trolley Problem)實驗為背景,設(shè)計了“道德機器”(Moral Machine)。這是一款多語言在線游戲,吸引了全世界不同國家和地區(qū)的人參與。

“電車難題”是倫理學領(lǐng)域最為知名的思想實驗之一。由于對人的傷害是不可避免的,這一問題無法通過任何簡單的規(guī)范道德原則(例如阿西莫夫機器人定律)來解決。它情節(jié)簡單,恰與未來的自動駕駛情景吻合,因此非常適合此類模擬實驗。

Awad開展的一個實驗設(shè)定了三種情境:

情境1:假設(shè)在一個電車軌道上有5個人在施工,而它的備用軌道上有1個人。有一輛失控的電車飛速駛來,而你身邊正好有一個搖桿,你可以推動搖桿來讓電車駛?cè)雮溆密壍馈W罱K殺死1人,救下5人。

情境2:假設(shè)在一個電車軌道上有5個人在施工,另有一個環(huán)行軌道上有1個人。有一輛失控的電車飛速駛來,而你身邊正好有一個搖桿,你可以推動搖桿來讓電車駛?cè)氕h(huán)行軌道殺死那1個人,擋住電車,救下5個人。

情境3:如果在你站在天橋上,看到電車失控,沖向軌道前方被縛的5個人。但這時你發(fā)現(xiàn)一個體重很重的胖子,正站在身邊。他的巨大體形與重量,正好可以擋住電車。你讓他失去了生命,但救了那5個人。

由于電車速度較快,情況緊急,你必須在很短的時間內(nèi)做出決定。

實驗結(jié)果發(fā)現(xiàn),在全球44個國家共7萬實驗者中,其行為偏好穩(wěn)定表現(xiàn)為切換軌道高于環(huán)行軌道,再高于天橋推人的模式。不同國家的差異僅僅是程度上的。

Awad推測其原因是天橋中胖子的犧牲需要對他使用暴力,而切換軌道中沒有對任何人使用個人武力。而環(huán)行軌道的優(yōu)點是不需要對任何人使用人身暴力,人們很難判定工人的死亡是故意為之的還是意外,因此對它的偏好處于前兩個情景中間。

這個并不太令人意外的實驗結(jié)果,卻有理由讓我們感到樂觀,畢竟在不同人群之間找到共識還是有可能的。

Awad另一項規(guī)模更大的實驗在全球范圍內(nèi)吸引了233個國家和地區(qū)的3961萬人參與,考察面對不同的人群,讓人們在車輛轉(zhuǎn)向還是保持原有路線兩種情況之中作出選擇。這里有一點特別的就是當汽車避讓行人時,車上的乘客會因事故死亡。

實驗比較了“物種傾向”“生命數(shù)量傾向”“性別傾向”“年齡傾向”“體型傾向”“社會價值傾向”“保護乘客或行人的傾向”“遵守法律的傾向”“避免干預的傾向”這九個維度,最終發(fā)現(xiàn)在全球范圍內(nèi),最顯著的前三項偏好分別是保護更多的生命、保護人類(相較于動物)和保護幼小的生命。作者由此認為這三個偏好可作為機器倫理的基本組成部分,或者至少作為政策制定者需要考慮的基本主題。

通過聚類,Awad的研究發(fā)現(xiàn),決策風格在全球范圍內(nèi)可以非常穩(wěn)健地分為西方(英、美、澳等)、東方(中、日、俄等)和南方(法、意、西、拉美等)三個文化和地理類別。不同類別之間在上述特性上展示出一定的差異。例如東方國家由于有敬老的傳統(tǒng),對年輕人的偏好比對老年人的偏好要比另外兩個群體低得多。南方國家則對保護女性和健康人有更強烈的偏好。

“電車難題”實驗考察的是人生死存亡的大問題,存在情況過于極端的局限性。相比之下,在商業(yè)環(huán)境下,企業(yè)高管并不會面臨這么重大的倫理抉擇,而是考慮諸如:可否將所收集的用戶數(shù)據(jù)開創(chuàng)另一種用途,創(chuàng)造新的商業(yè)價值;在批準貸款或崗位招聘時是否需要考慮居住地、年齡、性別、種族等因素,等等。

但是從解決思路上看,企業(yè)高管們遵循的是同樣的邏輯:首先需要考慮所在社會普遍能接受的倫理準則和共識,將其納入算法決策規(guī)則,這些算法通過學習不同行為的獎勵機制,使得AI模型能夠預測并選擇在特定情況下最合適的、最符合人類利益的行動方案,最終實現(xiàn)公司利益最大化。

當然,以上討論的前提是通用人工智能(AGI)在短期內(nèi)不會出現(xiàn),這一點非常關(guān)鍵。在AI快速演進的今天,有一個為科幻小說家和電影編劇最感興趣的情境:AI最終依靠自己的聰明才智,突破奇點,掌控這個世界。

這其實是人類思考AI與倫理關(guān)系的終結(jié)版本。

當世界為AI所掌控,此時的人類已經(jīng)成為失去自由意志的奴隸,倫理問題無從談起:我做這件事,完全是AI命令我做的。對于我而言,它就沒有任何倫理上的意義。

對人類而言,這是一個不可接受的、陰暗的未來。要想擺脫這一宿命,人類就需要在奇點來臨之前學會更好地與AI相處,讓AI安全可控。

最好的結(jié)果當然是,這一天永遠不會到來。

追本溯源:

為了更好地理解紛繁復雜的商業(yè)現(xiàn)象,我們需要厘清基本概念。涉及本文的內(nèi)容,我們在《管理學大辭典》上找到了如下相關(guān)概念,供各位參考:

文化相對主義(cultural relativism)

認為不同的文化具有不同的倫理實踐主張。在現(xiàn)實生活中,一種文化中被認為是正確的倫理實踐,到另一種文化就可能被認為是錯誤的。在文化相對論里,對和錯可以通過對世界的考察來判斷。

企業(yè)社會責任(corporate social responsibility)

企業(yè)在制定追求自身利益目標的同時,應盡量采取措施保護和促進社會整體福利的義務(wù)。企業(yè)社會責任所考慮的是由于企業(yè)對社會的影響而產(chǎn)生的問題,以及應該如何確立適當?shù)膫惱韥砑s束公司和社會的關(guān)系。要求企業(yè)必須超越把利潤作為唯一目標的傳統(tǒng)理念,強調(diào)要在生產(chǎn)過程中對人的價值的關(guān)注,強調(diào)對消費者、環(huán)境、社會的貢獻。社會責任國際組織(SAI)頒布的“企業(yè)社會責任國際標準”(SA8000)對企業(yè)社會責任作了許多規(guī)定。

 

來源:復旦《管理視野》官方澎湃號,2024-06-12

作者:趙付春,上海社會科學院信息所副研究員于保平,《管理視野》常務(wù)副主編

 

 


文字:|圖片:|編輯:

最新

熱門

返回原圖
/