黄色网站三级片,性色精品在线网站,国产很爽的超薄丝袜脚交视频,中文有码无码人妻在线

您所在的位置:首頁  專家視點

陳宇超:強人工智能可能帶來的法律風險及應對措施

日期:2024/05/30|點擊:131

人工智能快速發(fā)展也意味著其中存在更多已知與未知的風險,這對法律回應和規(guī)制方式提出了挑戰(zhàn)。應在法律層面對企業(yè)收集數(shù)據(jù)的技術應用及數(shù)據(jù)過濾保護機制進行更細致的規(guī)定與嚴格監(jiān)管,并完善制度體系。

5月14日凌晨,美國人工智能OpenAI在官網(wǎng)發(fā)布了旗艦生成式人工智能模型“GPT-4o”,其中的“o”代表“omni”(全能),指的是該模型處理文本、語音和視頻的能力。和2022年11月上線的人工智能聊天機器人ChatGPT相比,它具有與人類相似的對話能力,具有幽默感,可以現(xiàn)場自拍,并提供描述,包括你的穿著,甚至伴隨著現(xiàn)實世界中幾乎所有的傾向,比如打斷、理解語氣等。此外,除響應速度更快外,GPT-4o似乎很容易捕捉到情緒,并根據(jù)用戶的要求調(diào)整語氣和風格,甚至還在回應中加入了音效、笑聲和歌聲。有媒體認為,這預示著強人工智能——生成式人工智能領域再次迎來了歷史性時刻,這引發(fā)了人們的廣泛關注、討論。

近年來,隨著人工智能技術的快速發(fā)展,它可以為人類社會提供極大便利,以ChatGPT為代表的強人工智能除可以實現(xiàn)傳統(tǒng)人工智能的功能外,還可以進行自我學習、撰寫論文、編寫代碼、起草法律意見書、智能診療等,應用場景廣泛,對社會發(fā)展變革產(chǎn)生了深刻影響。但是,機遇總是與挑戰(zhàn)并存,人工智能有如一把雙刃劍,其快速發(fā)展及更新?lián)Q代必然也意味著其中存在更多已知與未知的風險,比如:潛在的數(shù)據(jù)隱私、“算法歧視”、知識產(chǎn)權等方面的法律風險等,這對法律回應和規(guī)制方式提出了挑戰(zhàn)。

強人工智能可能帶來的風險與挑戰(zhàn)

相比于傳統(tǒng)人工智能,強人工智能帶來的挑戰(zhàn)與風險可能更明顯。本文主要從數(shù)據(jù)隱私、“算法歧視”與知識產(chǎn)權三個方面對生成式人工智能可能引發(fā)的風險和爭議進行分析。

首先,數(shù)據(jù)安全問題。ChatGPT等生成式人工智能意味著相比傳統(tǒng)人工智能,其數(shù)據(jù)收集和爬取能力更強大,除使用者提供的數(shù)據(jù)外,網(wǎng)絡平臺本身的海量內(nèi)容均可能被其收集讀取用于內(nèi)容生成,從而可能引發(fā)數(shù)據(jù)侵權、泄露和侵犯隱私問題。ChatGPT等生成式人工智能的升級迭代需要大量數(shù)據(jù)支撐,這些數(shù)據(jù)通常來自公司購買或其自行采集和爬取。這兩種方式均存在數(shù)據(jù)侵權和隱私泄露風險,公司購買的第三方數(shù)據(jù)可能存在權屬不清問題;自行采集的數(shù)據(jù),由于生成式人工智能用戶受眾十分廣泛,使用者涵蓋政務處理者、公司員工和個人用戶等,這使得其收集到的數(shù)據(jù)和信息十分龐大。其中,所儲備的數(shù)據(jù)一旦因不明攻擊等原因被泄露,則可能危害國家安全、泄露商業(yè)機密、侵犯個人隱私等。此外,在數(shù)據(jù)收集過程中,人工智能本身也可能存在不當收集的情況,如違規(guī)收集用戶未授權的數(shù)據(jù),突破用戶知情同意原則自行爬取數(shù)據(jù)等。

其次,ChatGPT等生成式人工智能可能存在“算法歧視”。生成式人工智能往往基于海量數(shù)據(jù)和強大模型算力生成文本,其生成的內(nèi)容受研發(fā)者和使用者提供的數(shù)據(jù)及模型多次訓練而形成,這使得其“算法歧視”更隱蔽。目前,生成式人工智能的訓練數(shù)據(jù)和語料庫多來自西方國家,與我國價值立場并不一致,因而在生成內(nèi)容上可能潛藏價值歧視風險,比如主要傾向于西方國家的價值觀。同時,生成式人工智能的使用者少有社會弱勢群體用戶,如殘障人士、不會使用電子產(chǎn)品的老年人群體等。因此,生成式人工智能在收集數(shù)據(jù)及輸出數(shù)據(jù)時可能因“數(shù)據(jù)鴻溝”的存在而對這部分人群的權利形成歧視。

最后,強人工智能的快速發(fā)展給傳統(tǒng)知識產(chǎn)權保護體系帶來很大挑戰(zhàn)。和傳統(tǒng)簡單完成人類指令的“弱人工智能”不同,生成式人工智能基于數(shù)據(jù)讀取和模型訓練具有類人性的抽象思考能力及解決問題能力。從外觀上看,它似乎具有人類所擁有的自行“創(chuàng)作”能力,其生成的內(nèi)容歸屬應當屬于使用者還是人工智能本身,這值得思考。此外,生成式人工智能輸出的內(nèi)容均基于海量的數(shù)據(jù)收集和爬取,這之中可能存在未經(jīng)授權的內(nèi)容被人工智能讀取收集并用于文本內(nèi)容的輸出,且并不標注出處,這是否侵害原數(shù)據(jù)作者的知識產(chǎn)權?現(xiàn)行法律法規(guī)該如何規(guī)制這種行為并制定保護措施呢?這些問題都對傳統(tǒng)知識產(chǎn)權保護體系帶來挑戰(zhàn),需要現(xiàn)行法律和規(guī)范進行回應和規(guī)制。

強人工智能到來,法律如何應對

針對ChatGPT等生成式人工智能可能帶來的各類法律風險,世界各國大多表現(xiàn)出謹慎態(tài)度并積極制定法律法規(guī)進行引導和規(guī)制。如美國政府已開始研究是否需要對ChatGPT等人工智能工具進行審查;意大利、德國監(jiān)管機構(gòu)已發(fā)布ChatGPT禁令;近日,歐洲議會通過全球首個人工智能監(jiān)管法案《人工智能法案》。2023年7月,我國國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工信部、公安部等七部門發(fā)布并施行《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),進一步規(guī)范生成式人工智能的發(fā)展??梢?,世界各國對人工智能風險規(guī)避均十分重視。但要想更好地發(fā)揮強人工智能在人類社會中的作用,實現(xiàn)其最大程度合理應用,且規(guī)避潛在風險,還應以更加科學直接的法律方式進行治理。

首先,細化《辦法》規(guī)定,保護數(shù)據(jù)安全。盡管現(xiàn)行《辦法》確立了對數(shù)據(jù)的保護立場,如規(guī)定“使用具有合法來源的數(shù)據(jù)和基礎模型”,但具體性與可操作性有待進一步提升。對此,應在法律層面對企業(yè)收集數(shù)據(jù)的技術應用及數(shù)據(jù)過濾保護機制進行更細致的規(guī)定與嚴格監(jiān)管。在數(shù)據(jù)收集方面,要求恪守用戶知情同意原則,禁止突破用戶的知情同意原則違法收集未授權信息。同時,規(guī)定在用戶使用生成式人工智能時,開發(fā)者須在軟件端明確告知其享有的信息自決權和刪除權等個人信息權益,使用戶提升個人隱私保護意識。在與國家安全、商業(yè)機密有關的數(shù)據(jù)上,要求人工智能開發(fā)者設置嚴格的過濾和保護機制,從而有效預防數(shù)據(jù)隱私泄露。需要注意的是,生成式人工智能在數(shù)據(jù)處理、應用形態(tài)上更復雜,相關立法部門要隨時關注技術演化走向,從而更好地制定與數(shù)據(jù)保護有關的規(guī)則。

其次,完善制度體系建設,避免“算法歧視”。《辦法》對防止人工智能“算法歧視”已有條款規(guī)定,比如在第四條第四項規(guī)定:“在算法設計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視?!钡撘?guī)定與數(shù)據(jù)安全的相關規(guī)定一樣,較為原則,缺乏具體的規(guī)則引導和規(guī)制。避免“算法歧視”,應加強和完善反歧視的制度體系建設,這包括企業(yè)內(nèi)部的倫理審查監(jiān)督制度及監(jiān)管部門和中立第三方的監(jiān)督審查體系。法律應規(guī)定企業(yè)自身在算法設計時,將公正、平等的原則貫徹其中,在模型訓練時,要特別注意性別、年齡、職業(yè)、國別等可能產(chǎn)生歧視的因素。同時,制定監(jiān)管部門以及外部中立組織定期抽查算法模型的規(guī)則,通過監(jiān)管機構(gòu)或中立第三方組織定期對生成式人工智能的算法進行審查,以監(jiān)督是否存在“算法歧視”問題。

在對生成式人工智能涉及的知識產(chǎn)權爭議問題上,應當明確人工智能對數(shù)據(jù)使用的界限,保護知識產(chǎn)權。目前,大多數(shù)觀點并不認為生成式人工智能具有“獨立創(chuàng)作”能力,它與具有情感、價值判斷和思想的“人”創(chuàng)作的內(nèi)容和過程并不相同。因此,由人工智能生成的文本仍應當由使用者享有其知識產(chǎn)權,并不能被看作獨立的創(chuàng)作者。在知識產(chǎn)權保護方面,為防止人工智能對未授權內(nèi)容進行違規(guī)數(shù)據(jù)收集和爬取,侵犯原作者的知識產(chǎn)權,應在法律中明確生成式人工智能收集和讀取信息的邊界,對于挖掘未經(jīng)權利人授權的數(shù)據(jù)和內(nèi)容形成文本的,予以懲處。

 

來源:民主與法制時報,2024-05-29

作者:陳宇超,上海社會科學院法學研究所

 

 


文字:|圖片:|編輯:

最新

熱門

返回原圖
/