姜 聰
2025年10月16日08:19 來源:人民網-人民日報222
點擊播報本文,約
直播間內,仿冒奧運冠軍聲音進行帶貨﹔社交平台上,冒用影視明星形象開展互動,欺騙網友情感﹔突發事件中,偽造所謂“受害者”照片並肆意傳播,助推謠言擴散……隨著生成式人工智能技術加速迭代,音頻、視頻、圖像等內容生成效果日趨逼真,在拓展應用場景的同時,也帶來了不容忽視的治理挑戰。
截至2024年,我國生成式人工智能產品的用戶規模已達2.49億人,人工智能生成內容呈現跨平台化和跨境傳播特征。同時,人工智能生成內容易於被批量篡改和重組,源頭不易找,追溯難度大。違法違規的人工智能生成內容迅速蔓延,不僅侵害個體權益,也擾亂網絡秩序,必須高度重視。
前不久施行的《人工智能生成合成內容標識辦法》規定,對生成合成內容要添加顯式標識,也要在文件元數據中添加隱式標識。這有助於實現對用戶的提示警示,同時為內容溯源與責任認定提供技術保障。辦法的施行,對提升我國人工智能安全治理水平具有重要意義。
黨的二十屆三中全會《決定》提出,“建立人工智能安全監管制度”。近年來,《中華人民共和國網絡安全法》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等法律法規的出台,為人工智能的有效監管奠定了基礎。然而,技術發展日新月異,規則具有滯后性,二者不可避免存在時間差。人工智能安全治理如何因時而變,避免“刻舟求劍”,值得深入探討。
法治具有固根本、穩預期、利長遠的保障作用。在立法確定的治理框架下,司法通過個案裁判和司法解釋細化立法原則,填補規則漏洞,能實現對技術進步的能動回應。
比如,最高人民法院2024年發布反壟斷民事訴訟司法解釋,對互聯網平台通過人工智能等技術手段排除、限制競爭的行為予以依法規制。實踐証明,充分發揮司法職能作用,在明確行為性質、劃分責任義務等方面完善規則制度,才能有效抑制技術發展可能產生的負面影響,確保“智能向善”。
技術每前進一步,治理就要跟進一步,但過度監管又會扼殺創新活力。對人工智能的治理與監管,必須統籌發展和安全,既明確相關主體行為邊界,也為創新與探索留足空間。
比如,北京建立人工智能監管沙盒機制,該機制探索弱版權保護政策和風險補償規則,降低數據安全隱患,減少數據流通中的合規成本,有助於加快推動人工智能產業化應用。這啟示我們,在風險可控的前提下,對經營主體開展審慎監管和柔性治理,給予實驗性項目適當容錯空間,有助於破解一放就亂、一管就死的治理困局,在規范中釋放產業發展活力。
習近平總書記強調,“要把握人工智能發展趨勢和規律,加緊制定完善相關法律法規、政策制度、應用規范、倫理准則”。人工智能安全治理,不是簡單的“管住就行”,而是要讓技術在制度的“土壤”裡更為茁壯地生長。
面向未來,唯有完善規則體系、強化倫理約束、提升治理效能,方能推動人工智能更好賦能千行百業,讓廣大人民共享技術發展帶來的福祉。
《 人民日報 》( 2025年10月16日 05 版)
微信“掃一掃”添加“學習大國”