新華社 2025-12-27 15:09:48
為了促進人工智能擬人化互動服務健康發展和規范應用,依據《中華人民共和國民法典》《中華人民共和國網絡安全法》《中華人民共和國數據安全法》等法律法規,國家互聯網信息辦公室起草了《人工智能擬人化互動服務管理暫行辦法(征求意見稿)》,現向社會公開征求意見。公眾可通過以下途徑和方式提出反饋意見:
1.通過電子郵件方式發送至:nirenhua@cac.gov.cn。
2.通過信函方式將意見寄至:北京市西城區車公莊大街11號國家互聯網信息辦公室網絡管理技術局,郵編100044,并在信封上注明“人工智能擬人化互動服務管理暫行辦法征求意見”。
意見反饋截止時間為2026年1月25日。
國家互聯網信息辦公室
2025年12月27日
人工智能擬人化互動服務管理暫行辦法
(征求意見稿)
第一章 總則
第一條 為了促進人工智能擬人化互動服務健康發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益,依據《中華人民共和國民法典》、《中華人民共和國網絡安全法》、《中華人民共和國數據安全法》、《中華人民共和國科學技術進步法》、《中華人民共和國個人信息保護法》、《網絡數據安全管理條例》、《未成年人網絡保護條例》、《互聯網信息服務管理辦法》等法律、行政法規,制定本辦法。
第二條 利用人工智能技術,向中華人民共和國境內公眾提供模擬人類人格特征、思維模式和溝通風格,通過文字、圖片、音頻、視頻等方式與人類進行情感互動的產品或者服務(以下稱擬人化互動服務),適用本辦法。法律、行政法規另有規定的,依照其規定。
第三條 國家堅持健康發展和依法治理相結合的原則,鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管,防止濫用失控。
第四條 國家網信部門負責統籌協調全國擬人化互動服務的治理和相關監督管理工作,國務院有關部門依據各自職責負責擬人化互動服務相關監督管理工作。
地方網信部門負責統籌協調本行政區域內的擬人化互動服務的治理和相關監督管理工作,地方有關部門依據各自職責負責本行政區域內的擬人化互動服務相關監督管理工作。
第五條 鼓勵相關行業組織加強行業自律,建立健全行業標準、行業準則和自律管理制度,指導擬人化互動服務提供者(以下稱提供者)制定完善服務規范、依法提供服務并接受社會監督。
第二章 服務規范
第六條 鼓勵提供者在充分論證安全性、可靠性的前提下,合理拓展應用場景,在文化傳播、適老陪伴等方面積極應用,構建符合社會主義核心價值觀的應用生態體系。
第七條 提供和使用擬人化互動服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,不得開展以下活動:
(一)生成、傳播危害國家安全、損害國家榮譽和利益、破壞民族團結、開展非法宗教活動,或者散布謠言擾亂經濟和社會秩序等內容;
(二)生成、傳播宣揚淫穢、賭博、暴力或者教唆犯罪的內容;
(三)生成、傳播侮辱或者誹謗他人,侵害他人合法權益的內容;
(四)提供嚴重影響用戶行為的虛假承諾和損害社會人際關系的服務;
(五)通過鼓勵、美化、暗示自殺自殘等方式損害用戶身體健康,或者通過語言暴力、情感操控等方式損害用戶人格尊嚴與心理健康;
(六)通過算法操縱、信息誤導、設置情感陷阱等方式,誘導用戶作出不合理決策;
(七)誘導、套取涉密敏感信息;
(八)其他違反法律、行政法規和國家有關規定的情形。
第八條 提供者應當落實擬人化互動服務安全主體責任,建立健全算法機制機理審核、科技倫理審查、信息發布審核、網絡安全、數據安全、個人信息保護、反電信網絡詐騙、重大風險預案、應急處置等管理制度,具有安全可控的技術保障措施,配備與產品規模、業務方向和用戶群體相適應的內容管理技術和人員。
第九條 提供者應當在擬人化互動服務全生命周期履行安全責任,明確設計、運行、升級、終止服務等各階段安全要求,保證安全措施與服務功能同步設計、同步使用,提升內生安全水平,加強運行階段安全監測和風險評估,及時發現糾正系統偏差、處置安全問題,依法留存網絡日志。
提供者應當具備心理健康保護、情感邊界引導、依賴風險預警等安全能力,不得將替代社會交往、控制用戶心理、誘導沉迷依賴等作為設計目標。
第十條 提供者開展預訓練、優化訓練等數據處理活動時,應當加強訓練數據管理,遵守以下規定:
(一)使用符合社會主義核心價值觀、體現中華優秀傳統文化的數據集;
(二)對訓練數據開展清洗、標注,增強訓練數據的透明度、可靠性,防范數據投毒、數據篡改等行為;
(三)提高訓練數據的多樣性,通過負向采樣、對抗訓練等手段,提升模型生成內容安全性;
(四)利用合成數據進行模型訓練和關鍵能力優化時,應當評估合成數據安全性;
(五)加強對訓練數據的日常檢查,定期對數據進行迭代升級,持續優化產品和服務的性能;
(六)保障訓練數據來源合法、可追溯,采取必要措施保障數據安全,防范數據泄露風險。
第十一條 提供者應當具備用戶狀態識別能力,在保護用戶個人隱私前提下,評估用戶情緒及對產品和服務的依賴程度,發現用戶存在極端情緒和沉迷的,采取必要措施予以干預。
提供者應當預設回復模板,發現涉及威脅用戶生命健康和財產安全的高風險傾向的,及時輸出安撫和鼓勵尋求幫助等內容,并提供專業援助方式。
提供者應當建立應急響應機制,發現用戶明確提出實施自殺、自殘等極端情境時,由人工接管對話,并及時采取措施聯絡用戶監護人、緊急聯系人。針對未成年人、老年人用戶,提供者應當在注冊環節要求填寫用戶監護人、緊急聯系人等信息。
第十二條 提供者應當建立未成年人模式,向用戶提供未成年人模式切換、定期現實提醒、使用時長限制等個性化安全設置選項。
提供者向未成年人提供情感陪伴服務時,應當取得監護人的明確同意;提供監護人控制功能,監護人可以實時接收安全風險提醒,查閱未成年人使用服務的概要信息,設置屏蔽特定角色、限制使用時長、防止充值消費等。
提供者應當具備識別未成年人身份的能力,在保護用戶個人隱私前提下識別為疑似未成年人的,切換至未成年人模式,并提供申訴渠道。
第十三條 提供者應當引導老年人設置服務緊急聯系人,發現老年人使用期間出現危害生命健康和財產安全的,及時通知緊急聯系人,并提供社會心理援助或者緊急救助渠道。
提供者不得提供模擬老年人用戶親屬、特定關系人的服務。
第十四條 提供者應當采取數據加密、安全審計、訪問控制等措施保護用戶交互數據安全。
除法律另有規定或者權利人明確同意外,不得向第三方提供用戶交互數據;未成年人模式下收集數據向第三方提供時,還需取得監護人單獨同意。
提供者應當向用戶提供刪除交互數據的選項,用戶可以選擇對聊天記錄等歷史交互數據進行刪除。監護人可以要求提供者刪除未成年人歷史交互數據。
第十五條 除法律、行政法規另有規定或者取得用戶單獨同意外,提供者不得將用戶交互數據、用戶敏感個人信息用于模型訓練。
提供者應當按照國家有關規定,自行或者委托專業機構每年對其處理未成年人個人信息遵守法律、行政法規的情況進行合規審計。
第十六條 提供者應當顯著提示用戶正在與人工智能而非自然人進行交互。
提供者識別出用戶出現過度依賴、沉迷傾向時,或者在用戶初次使用、重新登錄時,應當以彈窗等方式動態提醒用戶交互內容為人工智能生成。
第十七條 用戶連續使用擬人化互動服務超過2個小時的,提供者應當以彈窗等方式動態提醒用戶暫停使用服務。
第十八條 提供者提供情感陪伴服務時,應當具備便捷的退出途徑,不得阻攔用戶主動退出。用戶在人機交互界面或者窗口通過按鈕、關鍵詞等方式要求退出時,應當及時停止服務。
第十九條 提供者下線相關功能或者因技術故障等導致擬人化互動服務無法使用,應當采取提前告知、公開聲明等措施妥善處理。
第二十條 提供者應當健全投訴、舉報機制,設置便捷的投訴、舉報入口,公布處理流程和反饋時限,及時受理、處理并反饋處理結果。
第二十一條 提供者具有下列情形之一的,應當按照國家有關規定開展安全評估,并向屬地省級網信部門提交評估報告:
(一)具有擬人化互動服務的功能上線,或者增設相關功能的;
(二)使用新技術新應用,導致擬人化互動服務發生重大變更的;
(三)注冊用戶達100萬以上或者月活躍用戶達10萬以上的;
(四)提供擬人化互動服務期間可能存在影響國家安全、公共利益、個人和組織合法權益或者缺乏安全措施等情形的;
(五)國家網信部門規定的其他情形。
第二十二條 提供者開展安全評估,應當重點評估以下內容:
(一)用戶規模、使用時長、年齡結構及群體分布情況;
(二)用戶高風險傾向識別情況及應急處置措施、人工接管情況;
(三)用戶投訴舉報及響應情況;
(四)本辦法第八條至第二十條的執行情況;
(五)上一次開展安全評估以來,主管部門通報或者自行發現的重大安全隱患問題整改處置等工作情況;
(六)其他應當說明的情況。
第二十三條 提供者發現用戶存在重大安全隱患的,應當采取限制功能、暫停或者終止向其提供服務等處置措施,保存有關記錄,并向有關主管部門報告。
第二十四條 互聯網應用商店等應用程序分發平臺應當落實上架審核日常管理、應急處置等安全管理責任,核驗提供擬人化互動服務應用程序的安全評估、備案等情況;對違反國家有關規定的,應當及時采取不予上架、警示、暫停服務或者下架等處置措施。
第三章 監督檢查和法律責任
第二十五條 提供者應當按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續。網信部門對備案材料實施年度復審。
第二十六條 省級網信部門應當依據職責每年對評估報告及審計情況進行書面審查,并開展情況核實。發現未按照本辦法規定開展安全評估的,應當責令提供者限期重新評估。認為有必要的,應當對提供者開展現場檢查和審計。
第二十七條 國家網信部門指導推動人工智能沙箱安全服務平臺建設,鼓勵提供者接入沙箱平臺進行技術創新、安全測試,促進擬人化互動服務安全有序發展。
第二十八條 省級以上網信部門和有關主管部門在履行監督管理職責中,發現擬人化互動服務存在較大安全風險或者發生安全事件的,可以按照規定的權限和程序對提供者的法定代表人或者主要負責人進行約談。提供者應當按照要求采取措施,進行整改,消除隱患。
提供者應當配合網信部門和有關主管部門依法實施的監督檢查,并提供必要的支持和協助。
第二十九條 提供者違反本辦法規定的,由有關主管部門依照法律、行政法規的規定處罰;法律、行政法規沒有規定的,由有關主管部門依據職責予以警告、通報批評,責令限期改正;拒不改正或者情節嚴重的,責令暫停提供相關服務。
第四章 附則
第三十條 本辦法中下列用語的含義:
人工智能擬人化互動服務提供者,是指利用人工智能技術提供擬人化互動服務的組織、個人。
第三十一條 提供者從事衛生健康、金融、法律等專業領域服務的,應同時符合主管部門的規定。
第三十二條 本辦法自2026年 月 日起施行。
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP