1月3日,中央直屬黨報《經濟日報》在10智庫版發表劉鵬教授署名文章《探索共享與監管動態平衡》。劉鵬教授與多位專家在該版面共同探討了“如何推動人工智能安全發展”這一話題。
相關鏈接:
● 劉鵬教授文章鏈接:
https://proapi.jingjiribao.cn/detail.html?id=500124
● 其他專家智庫圓桌討論文章鏈接:
https://proapi.jingjiribao.cn/readnews.html?id=299131
以下為劉鵬教授文章全文:
以ChatGPT為代表的生成式人工智能掀起新一輪熱潮。與此同時,數據泄露、隱私竊取、算法歧視等數字安全風險不斷顯現,迫切需要尋找共享與監管并重的動態平衡范式,守住人工智能時代的數字安全底線。
縱觀全球,中國、美國和歐盟作為探索數字安全和數字治理的先行者,無論是技術創新還是立法規范都走在世界前列,同時也存在差異。在相同點方面,均高度重視算法治理,將算法安全嵌套在數據安全中,實行數據與算法協同治理;在差異性方面,雖然同樣強調個人隱私安全,美國以鼓勵創新為核心,更注重數據自由流動,傾向于以行業自律進行治理。歐盟注重個人隱私保護和立法,探索和引入人工智能監管沙盒機制,并發布首部人工智能監管法案。這些經驗做法,對我國數字安全治理具有一定參考價值。
我國加快推動人工智能發展,需形成政府、企業、社會組織和個人合力,在協同數據和算法治理、保障生成式人工智能安全等方面實現重點突破。
第一,啟動國家人工智能數據和算法工程。建立安全標準,分門別類對數據和算法進行管理,提升數據互操作性以及算法透明度,改變過去個人或企業單打獨斗的局面。
自動檢索風險指標。開發針對人工智能應用網絡的早期預警系統,對網絡資源進行常規監控和過濾,對于不符合政策要求的危險因素、劣質數據和不良信息,及時清除或屏蔽。通過該預警系統自動檢索關鍵風險指標,及時補救,防止再出現類似安全漏洞。
甄別人工智能生成內容。從源頭上,為人工智能生成內容打上標記。深度合成服務提供者提供深度合成服務,可能導致公眾混淆或者誤認的,應在生成或編輯的信息內容的合理位置、區域進行顯著標識,向公眾提示深度合成情況。
加大人工智能生成內容檢測工具開發和優化。目前針對人工智能生成的圖像、文本等已出現相應檢測工具,用于區分人工智能生成的內容和人類創造的內容,但準確率不高。亟需加大對數據、算法、模型的研究,開發精準的生成式人工智能檢測工具,真正實現“以AI測AI”。
加強人工智能數據共享。數據、算法、算力是驅動人工智能發展的“三駕馬車”,其中數據是人工智能發展的養料,例如僅GPT-4的訓練數據集就包含約13萬億個詞元。如果缺乏足夠的數據,人工智能發展無異于“無米之炊”。
推動中文數據集共享。由于語言特點、獲取成本、開源程度以及數據集質量要求等原因,相較于英文數據,目前中文數據集規模較小。基于中文的人工智能開發,可通過國家人工智能數據工程匯總高質量中文數據集,并促進數據分類分級有序共享,使安全性和服務質量得到大幅提升。
第二,加強生成式人工智能監管。推進全球溝通和探討,通過網絡數據安全管理、個人信息保護、數據審計等法律法規進一步完善生成式人工智能監管。統籌數據安全與算法治理,針對金融、醫療等不同行業領域以及算法歧視、算法黑箱等問題,開展多層次和精細化監管。開展多模態智能分析,在大模型領域引入文本、圖像、語音等,在訓練和應用過程中細化對不同元素的監管,通過功能模塊設計,及時發現問題并防范風險。
切實保障數據安全。使用生成式人工智能產品過程中,也在同步收集用戶數據和信息,可能引發潛在隱私安全問題。對此,應擴大安全使用指南宣傳。例如,不主動分享敏感信息、關閉聊天記錄等,基于專門的云服務運行,從訪問控制、數據加密、網絡連接等方面加強保護。對于數據敏感度較高的用戶,通過敏感信息過濾一體機進行識別篩選,可有效避免大模型產品在提供服務時產生不可控信息。
構建特定知識庫。基于特定知識庫提供人工智能服務,可在一定程度上避免虛假錯誤信息,提升準確性和安全性。建議借助大模型訓練推理一體機,通過本地化訓練和推理,在保護用戶數據隱私的前提下構建特定知識庫。
第三,在國際層面,積極與聯合國及主要國家溝通交流,達成全球規避人工智能風險共識,推動對所有大型人工智能科研項目實施備案和風險評估制度。在國家層面,組織專家團隊潛心進行人工智能風險評估和研究相關立法,加強網絡安全關鍵技術研發,加快人工智能安全技術創新,提升網絡安全產業綜合競爭力。
(作者系中國大數據應用聯盟人工智能專家委員會主任)