內容治理是生成式AI監管的關注重點。一方面,基于客觀維度,生成式AI可能會生成不真實或無意義的內容,即具有“幻覺”傾向;另一方面,結合價值判斷,生成式AI還存在生成有害內容的問題。如本系列首篇《生成式AI(一):嘗試參透監管的底層邏輯》所分析,生成式AI監管的底層邏輯在于引導對人類的良性影響。為了實現這一目標,監管規則對企業提出了一系列合規要求,旨在彌補生成式AI的固有缺陷,降低其應用風險。本文擬對我國生成式AI的監管規則進行體系化梳理,以期為企業的合規實踐提供指引。

一、模型訓練:確保來源合法、提升數據質量
(一)保障訓練數據來源的合法性
此外,根據《生成式人工智能服務辦法》的要求,為了加強數據質量管理,提供者如果采用了人工標注的方式訓練生成式AI,應當制定清晰、具體、可操作的標注規則,對標注人員進行必要培訓,抽樣核驗標注內容的正確性。實踐中建議企業留存相應的培訓和抽樣核驗記錄,以證明履行了合規義務。
二、運營管理:內容治理為核心,以人為本是基調
(一)內容治理
當前,國內已出現多起利用生成式AI發布虛假新聞的違法案例。例如,2023年4月,甘肅公安發現有不法分子散播題為“今晨甘肅一火車撞上修路工人致9人死亡”的虛假文章,而后查明該文為洪某利用ChatGPT所編輯的內容。洪某散布虛假信息的行為已涉嫌尋釁滋事罪,目前已被警方采取刑事強制措施,該案仍在進展之中。[9]
三、監管工具:算法備案與安全評估并駕齊驅
具有輿論屬性或社會動員能力的互聯網信息服務和相關新技術新應用是監管部門的重點關注對象。《生成式人工智能服務辦法》規定,利用生成式AI產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》向國家網信部門申報安全評估(即“安全評估”、“雙新評估”),并按照《算法推薦管理規定》履行算法備案和變更、注銷備案手續(即“算法備案”)。
除此之外,提供者負有配合監督檢查的義務。特別地,《生成式人工智能服務辦法》對算法透明度作出要求,提供者應當根據監管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標注規則,人工標注數據的規模和類型,基礎算法和技術體系等。實踐中建議企業留存前述相關內容的產品文檔、評估報告、日志記錄等,做好響應配合監督檢查的準備。
[1] https://arstechnica.com/tech-policy/2023/04/stable-diffusion-copyright-lawsuits-could-be-a-legal-earthquake-for-ai/
[2] https://mp.weixin.qq.com/s/aRYJbh1UO9RYEJdhL-nivQ
[3] https://openai.com/blog/our-approach-to-ai-safety
[4] https://mp.weixin.qq.com/s/DXgyb-8I2YLoXWN8j0QzAg
[5] https://www.douyin.com/rule/billboard?id=1242800000050
[6] 《生成式人工智能服務辦法》第十條:“提供者應當明確并公開其服務的適用人群、場合、用途,采取適當措施防范用戶過分依賴或沉迷生成內容。”
[7] 《算法推薦管理規定》第十八條:“算法推薦服務提供者向未成年人提供服務的,應當依法履行未成年人網絡保護義務,并通過開發適合未成年人使用的模式、提供適合未成年人特點的服務等方式,便利未成年人獲取有益身心健康的信息。
算法推薦服務提供者不得向未成年人推送可能引發未成年人模仿不安全行為和違反社會公德行為、誘導未成年人不良嗜好等可能影響未成年人身心健康的信息,不得利用算法推薦服務誘導未成年人沉迷網絡。”
[8] https://www.silicon.co.uk/e-innovation/artificial-intelligence/replika-italy-ban-497135
[9] https://mp.weixin.qq.com/s/_Wfe-EV13O6uBM65jZDzdg
*感謝趙雅澤對本文的突出貢獻
京ICP備05019364號-1
京公網安備110105011258