隨著ChatGPT等生成式人工智能(“生成式AI”)應用的迅速走紅,人工智能的治理議題由此被提升至前所未有的關(guān)注高度。在學習、實踐、折返、進階的往復中,與既往一樣,我們始終在探索最為簡單質(zhì)樸的合規(guī)最優(yōu)解,并愿意將此過程與各位共享。讓我們隨著生成式AI的發(fā)展一起迭代。
(一)深度合成技術(shù)包含生成式AI技術(shù)
最后,從監(jiān)管內(nèi)容角度來看,深度合成與生成式AI技術(shù)都存在輸出不當內(nèi)容、技術(shù)濫用等問題,導致監(jiān)管手段具有一定的相似性,生成式AI的監(jiān)管可以建立在深度合成監(jiān)管的基礎(chǔ)之上。
(二)深度合成與生成式AI監(jiān)管各有使命
我們理解,以ChatGPT為代表的生成式AI雖可以適用《深度合成管理規(guī)定》,但其規(guī)制重點與以Deepfake為代表的深度合成技術(shù)存在較大差異。
《深度合成管理規(guī)定》假定的監(jiān)管對象為Deepfake(“深度偽造”)
2017年,美國社交網(wǎng)站Reddit出現(xiàn)一個名為“deepfakes”的用戶,其利用技術(shù)將色情女演員的面部替換為知名女明星,并發(fā)布了相關(guān)圖像視頻。自此,深度偽造技術(shù)逐漸步入大眾視野。2019年,我國大眾文娛領(lǐng)域先后出現(xiàn)多起“明星換臉”事件,涉嫌肖像權(quán)侵權(quán)。隨后將關(guān)注度推向高潮的為“ZAO”事件。2019年8月,換臉軟件“ZAO”上線并迅速走紅,在該款應用中,用戶可以上傳照片并將影視片段中明星的人臉替換為照片中的人臉。“ZAO”的用戶協(xié)議作出了如下規(guī)定:“確保肖像權(quán)利人同意授予‘ZAO’及其關(guān)聯(lián)公司全球范圍內(nèi)完全免費、不可撤銷、永久、可轉(zhuǎn)授權(quán)和可再許可的權(quán)利,包括但不限于:人臉照片、圖片、視頻資料等肖像資料中所含的您或肖像權(quán)利人的肖像權(quán),以及利用技術(shù)對您或肖像權(quán)利人的肖像進行形式改動”,引發(fā)了大眾對于個人信息保護的擔憂,后被網(wǎng)信辦約談?wù)摹?/span>
深度偽造的一系列濫用事件引起了中國官方的高度重視。2020年12月,中共中央印發(fā)《法治社會建設(shè)實施綱要(2020-2025年)》,明確提出要完善網(wǎng)絡(luò)法律制度,制定完善對算法推薦、深度偽造等新技術(shù)應用的規(guī)范管理辦法。[3]2022年1月,國家網(wǎng)信辦就《深度合成管理規(guī)定(征求意見稿)》公開征求意見,并就規(guī)則制定的必要性進行了說明,明確提及要貫徹《法治社會建設(shè)實施綱要(2020-2025年)》中的決策部署,以及應對不法分子利用技術(shù)制作、復制、發(fā)布、傳播違法信息,詆毀、貶損他人名譽、榮譽,仿冒他人身份實施詐騙等違法行為。[4]由此可以看出,《深度合成管理規(guī)定》的重點規(guī)制對象在于深度偽造技術(shù)。
立法并未采用深度偽造的概念,原因或有其二:一是深度偽造的概念較為負面,立法旨在規(guī)制該項技術(shù)的濫用,并不意欲阻礙技術(shù)的發(fā)展或正當利用,而采用深度偽造的概念容易給人造成先入為主的負面印象;二是將深度偽造定義為監(jiān)管對象,會導致監(jiān)管范圍過窄。面對技術(shù)的迅猛發(fā)展,未來很可能會出現(xiàn)其他類似技術(shù)(例如當前的生成式AI),為了克服立法的滯后性問題,避免監(jiān)管機構(gòu)在執(zhí)法時無法可依,《深度合成管理規(guī)定》有意規(guī)定了更寬的監(jiān)管范圍。
《生成式人工智能服務(wù)辦法》假定的監(jiān)管對象為ChatGPT代表的大模型應用
2022年11月,美國人工智能研究公司OpenAI開發(fā)的ChatGPT聊天機器人上線,在上線不到2個月的時間內(nèi),其月活用戶突破1億,成為史上用戶增長最快的消費者應用。在其爆火的同時,其隱含的信息濫用、虛假信息、用戶依賴、系統(tǒng)失控、歧視問題、網(wǎng)絡(luò)安全等風險引發(fā)了學界和業(yè)界的擔憂。2023年3月22日,圖靈獎得主Yoshua Bengio、特斯拉CEO(Open AI聯(lián)合創(chuàng)始人)Elon Musk、蘋果聯(lián)合創(chuàng)始人Steve Wozniak等上千名專家聯(lián)名簽署公開信,強調(diào)人工智能系統(tǒng)可能給人類社會帶來的巨大風險,呼吁暫停開發(fā)比GPT-4更強大的人工智能系統(tǒng)。[5]2023年4月10日,中國支付清算協(xié)會發(fā)布公告,倡導支付行業(yè)從業(yè)人員謹慎使用ChatGPT等工具。[6]然而,大模型的浪潮已然掀起,百度、阿里巴巴、字節(jié)跳動、華為等國內(nèi)互聯(lián)網(wǎng)巨頭紛紛推出大模型產(chǎn)品,在這樣的背景之下,國家網(wǎng)信辦就《生成式人工智能服務(wù)辦法》公開征求意見,意為急用先行,監(jiān)管以ChatGPT為代表的大模型應用。
(三)引導對人類的良性影響是生成式AI監(jiān)管的底層邏輯
在明確《深度合成管理規(guī)定》與《生成式人工智能服務(wù)辦法》立法背景與重點監(jiān)管對象的不同之后,分別以Deepfake和ChatGPT為例對比其典型應用場景,更有助于理解兩部規(guī)范側(cè)重點之不同。
(1)系統(tǒng)的自主性
在Deepfake的應用場景下,用戶通常需要向系統(tǒng)輸入事先準備好的素材,經(jīng)由系統(tǒng)的加工,最終形成內(nèi)容輸出。在這個過程中,用戶本身對于輸出結(jié)果具有一定的預期,系統(tǒng)實際上是在用戶的控制之下完成工作,自主性較低。因此,從監(jiān)管的角度來看,規(guī)制的本質(zhì)在于穿透技術(shù),約束用戶濫用技術(shù)的行為。縱觀《深度合成管理規(guī)定》第二章,第六條率先從正面明確了任何組織和個人不得濫用深度合成服務(wù)的義務(wù),其余條款則主要是對深度合成服務(wù)提供者施以管理義務(wù),核心即在于阻止用戶的濫用行為:

相較而言,在ChatGPT的應用場景下,用戶通常無需輸入事先準備的素材,只需輸入相應指令,系統(tǒng)就能夠自行分析并生成輸出。在這個過程中,用戶對于輸出結(jié)果并不存在具體的預期,對系統(tǒng)的控制力也較弱。正如歐盟《人工智能法案》草案對生成式AI的定義一般,“生成式AI是使用基礎(chǔ)模型,專門用于以不同程度的自主性生成復雜的文本、圖像、音頻或視頻等內(nèi)容的人工智能系統(tǒng)”,系統(tǒng)的自主性是生成式AI的重要特征,這也會導致用戶更容易依賴系統(tǒng)或受到系統(tǒng)的影響。根據(jù)OpenAI的報告,GPT-4具有產(chǎn)生“幻覺“的傾向,即“產(chǎn)生與特定來源有關(guān)的無意義或不真實的內(nèi)容”,隨著模型變得愈加有說服力和可信度,這種傾向的危害會被放大,導致用戶過度依賴的問題。因此,從監(jiān)管的角度來看,其需解決的重點問題在于保護用戶免受系統(tǒng)的不良影響。《生成式人工智能服務(wù)辦法》對提供者施加的防依賴沉迷及指導用戶正當使用義務(wù)即可印證這一觀點。
(2)系統(tǒng)的輸出對象

[1] https://mp.weixin.qq.com/s/wN3Jg4NPBzb7ev-ZaIAZBw
[2] https://mp.weixin.qq.com/s/0Hmwknq6bNFDFyAwRJbJHg?search_click_id=13503168500786901975-1684977031338-1595689541
[3] http://www.gov.cn/zhengce/2020-12/07/content_5567791.htm
[4] http://www.cac.gov.cn/2022-01/28/c_1644970458520968.htm
[5] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[6] http://www.pcac.org.cn/eportal/ui?pageId=598261&articleKey=617041&columnId=595085
[7] §1041 (a) (2) the term ‘deep fake’ means an audiovisual record created or altered in a manner that the record would falsely appear to a reasonable observer to be an authentic record of the actual speech or conduct of an individual;
[8] Article 3 (44d)‘deep fake’ means manipulated or synthetic audio, image or video content that would falsely appear to be authentic or truthful, and which features depictions of persons appearing to say or do things they did not say or do, produced using AI techniques, including machine learning and deep learning;
*感謝趙雅澤對本文的突出貢獻
京ICP備05019364號-1
京公網(wǎng)安備110105011258