生成式人工智能指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。[1]隨著OpenAI接連發布對話式大型語言模型ChatGPT和多模態預訓練大模型 GPT-4,微軟基于GPT-4推出Microsoft 365 Copilot,大量生成式人工智能應用涌現并收獲大量用戶。生成式人工智能技術已成為近年來最具突破性的技術之一。
面對生成式人工智能的突破性發展,2023年4月11日,國家互聯網信息辦公室(“網信辦”)發布《生成式人工智能服務管理辦法(征求意見稿)》(“《征求意見稿》”),就生成式人工智能服務提出了針對性的監管要求。值得注意的是,生成式人工智能,尤其是大語言模型(LLM),對各國監管而言均屬新生事物,盡管域外已有歐盟《人工智能法案(AI Act)》[2]、美國《人工智能可問責性政策(AI Accountability Policy)》[3]等初步的立法嘗試,但整體而言尚未形成成熟的、可資借鑒的監管規則。網信辦此次發布的《征求意見稿》是對生成式人工智能產品的“全生命周期”進行專門規制的領先嘗試。
本文擬結合最新監管動態和相關項目經驗,探討投資生成式人工智能服務類項目需要特別關注的合規事項。
在《征求意見稿》出臺前,“生成合成類”算法推薦技術[4]已被納入《互聯網信息服務算法推薦管理規定》的監管范圍;而2022年12月頒布的《互聯網信息服務深度合成管理規定》所定義的“深度合成技術”[5],也包括了生成合成類算法的諸多應用場景(如文本、圖像、音頻、視頻等生成應用和VR技術)。
生成式人工智能等新興技術的突破式發展也在倫理領域帶來了巨大挑戰,在傳統主要適用于醫療健康領域的科技倫理審查基礎之上,兼及人工智能領域的科技倫理審查制度正在構建之中。2023年4月4日,科學技術部發布《科技倫理審查辦法(試行)(征求意見稿)》,與人工智能相關的科學研究、技術開發等科技活動也可能被納入適用范圍[6],需要提交科技倫理審查。
本次《征求意見稿》進一步明確“研發、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,適用該辦法”,并規定了兜底性罰則,即如果服務提供者違反該規定,且其他法律、行政法規沒有規定的,可能面臨警告、通報批評、責令限期改正,暫停或終止利用生成式人工智能提供服務,罰款(1-10萬元)等處罰。
除以上針對性規定外,從上位法角度,生成式人工智能服務提供者仍需要遵守《網絡安全法》《數據安全法》《個人信息保護法》等法律法規。
從近期生成式人工智能類投資項目的實操經驗出發,我們梳理了如下關注要點:
(一)資質/審查要求
《征求意見稿》規定,利用生成式人工智能產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》向國家網信部門申報安全評估,并按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續。
(1)安全評估
《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》通過“列舉+兜底”的方式,將“具有輿論屬性或社會動員能力的互聯網信息服務”定義為“論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網絡直播、信息分享、小程序信息服務及提供公眾輿論表達渠道或者具有發動社會公眾從事特定活動能力的信息服務”。
前述規定對需要進行安全評估的互聯網信息服務的表述相對寬泛,并未設定具體的量化指標,從規則角度給與了主管部門充分的自由裁量空間;此外,目前實際觸發或公開報道的案例也較為有限,尚未形成可資參照的監管實踐。在未來的監管實踐中,不排除面向C端用戶的生成式人工智能產品均可能被要求進行安全評估,或相關服務提供者被主管部門主動聯系和要求進行安全評估的情況,因此,服務提供者可以考慮結合業務情況和主管部門咨詢和確認。此外,需要注意的是,《互聯網信息服務深度合成管理規定》還要求互聯網應用商店等應用程序分發平臺落實上架審核,核驗深度合成類應用程序的安全評估、備案等情況,所以服務提供者亦可考慮提前和應用程序分發平臺溝通確認是否需要完成安全評估后方可上架,并據此合理安排安全評估的時間表。
(2)算法備案
根據《互聯網信息服務算法推薦管理規定》的相關規定,具有輿論屬性或者社會動員能力的算法推薦服務提供者,應當履行備案和變更、注銷備案手續;《互聯網信息服務深度合成管理規定》除要求深度合成服務提供者依照前述規定履行備案和變更、注銷備案手續外,另要求深度合成服務技術支持者亦需參照履行備案和變更、注銷備案手續。“具有輿論屬性或者社會動員能力”的認定標準可以參考我們在“安全評估”的相關分析。
目前,算法備案的落地規定已相對成熟,備案平臺(https://beian.cac.gov.cn/#/index)已上線運行近1年。根據公開的算法備案清單,我們注意到目前備案的算法類別以“個性化推送類”、“檢索過濾類”為主,也有一些天貓、淘寶、釘釘、快手、美團等互聯網企業的產品辦理了生成合成類算法備案,但數量相對較少。
(3)科技倫理審查
根據《科技倫理審查辦法(試行)(征求意見稿)》,從事人工智能科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會;特別地,具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發活動,被列為“需要開展專家復核的科技活動”,在通過本單位科技倫理(審查)委員會的初步審查后,還應報請所在地方或相關行業主管部門組織開展專家復核。
該辦法目前仍處于征求意見階段,尚不確定未來實際執行的的監管口徑和落地安排,建議持續關注相關規定的最新動態。
除了安全評估、算法備案和科技倫理審查,生成式人工智能服務提供者在提供相關產品服務時,還需要關注其自身的產品或服務形態是否構成增值電信業務,進而需要取得增值電信業務經營許可證;以及是否構成受監管的視聽類服務活動,進而需要取得《網絡文化經營許可證》《網絡出版服務許可證》《信息網絡傳播視聽節目許可證》《廣播電視節目制作經營許可證》,由于其中部分證照實踐中取得難度較高,服務提供者應根據自身情況調整展業方式。
(二)運營合規要求
結合《征求意見稿》,我們從投資項目角度,將需要提請重點關注的事項總結如下:

除了《征求意見稿》提及的以上事項,根據《網絡安全法》《數據安全法》《個人信息保護法》等相關規定,如下常見的數據合規事項也需要予以關注:
網絡安全等級保護:是否根據規定完成了網絡安全等級保護制度所要求的定級備案、安全建設整改、等級測評和自查等工作;
數據跨境合規:是否涉及個人信息或重要數據出境活動,是否依法通過數據出境安全評估、個人信息出境標準合同、個人信息保護認證等方式滿足數據出境條件;此外,對于雙向的數據跨境活動,亦需考慮是否符合其他境外適用法律規定;
重要數據識別及保護:是否涉及重要數據(如與政府、軍隊存在大模型項目合作);如涉及重要數據,是否依法履行了重要數據目錄備案、設立數據安全負責人及管理機構、定期開展風險評估等合規義務;
用戶協議和隱私政策審查:從《個人信息保護法》等相關規定角度審查用戶協議和隱私政策的條款是否完備、是否貼合業務實際情況。
(三)業務合同審查
除了面向C端的產品,生成式人工智能服務提供者還可能為企業、科研院所、政府和軍隊等客戶提供服務。從投資項目的角度,我們建議圍繞如下重點問題核查:
結合業務合同反映出的業務模式,進一步核查和確認項目公司涉及的業務資質類型以及運營合規問題;
實際簽署的業務合同是否與公司描述的業務模式一致;
是否限制或排除項目公司在特定領域或與特定客戶或供應商的合作;
與重要客戶、供應商的合作穩定性(如合作期限、解除權等)。
對于提供生成式人工智能服務的項目公司,除了常規類型合同,還需要特別關注其與訓練數據采購以及算力供應相關的合同。
就訓練數據采購,應關注數據提供方是否對提供的數據擁有合法的權利,以及購買的數據中是否涉及個人信息。如果涉及個人信息,需要注意核查第三方是否就數據的提供和使用以征得用戶同意等方式取得合法性基礎,數據提供方是否就數據違法行為承擔兜底賠償責任。
算力供應,通常包括自采、外采和算力共享等多種方式。從投資項目角度,需要關注算力是否能滿足項目公司的需求,以及算力供應是否穩定(比如相關算力采購或合作協議的期限等)。
生成式人工智能技術作為一項突破性技術,將深刻影響我們的生活和工作方式。而鑒于生成式人工智能服務需要處理大量的數據,可能涉及個人信息和重要數據,生成式人工智能服務的應用中,也可能會出現不符合社會倫理和公序良俗的情況(如:惡意攻擊、欺詐等行為),公眾開始擔心生成式人工智能技術會在網絡和數據安全、個人信息和隱私保護、科技倫理和社會秩序等各方面產生新的沖擊。對此,監管部門已經出臺了一系列規定,以促進生成式人工智能健康發展和規范應用,但該等規定具體如何把握和執行有待未來更多實踐的檢驗,也需要提請生成式人工智能服務提供者及相關投資機構對行業規定予以持續關注。
*楊建媛律師、李天爍律師就本文亦有貢獻
[1] 引用自《生成式人工智能服務管理辦法(征求意見稿)》的定義。
[2] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206
[3] https://ntia.gov/issues/artificial-intelligence/request-for-comments
[4]《互聯網信息服務算法推薦管理規定》規定,應用算法推薦技術是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類等算法技術向用戶提供信息。
[5] 《互聯網信息服務深度合成管理規定》規定,在中華人民共和國境內應用深度合成技術提供互聯網信息服務,適用本規定。“深度合成技術”是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術,包括但不限于:(一)篇章生成、文本風格轉換、問答對話等生成或者編輯文本內容的技術;(二)文本轉語音、語音轉換、語音屬性編輯等生成或者編輯語音內容的技術;(三)音樂生成、場景聲編輯等生成或者編輯非語音內容的技術;(四)人臉生成、人臉替換、人物屬性編輯、人臉操控、姿態操控等生成或者編輯圖像、視頻內容中生物特征的技術;(五)圖像生成、圖像增強、圖像修復等生成或者編輯圖像、視頻內容中非生物特征的技術;(六)三維重建、數字仿真等生成或者編輯數字人物、虛擬場景的技術。
[6] 根據《科技倫理審查辦法(試行)(征求意見稿)》,開展以下科技活動也需要進行科技倫理審查:(1)涉及個人信息的科技活動,以及(2)可能在生命健康、生態環境、公共秩序、可持續發展等方面帶來倫理風險挑戰的科技活動。
京ICP備05019364號-1
京公網安備110105011258