2022年11月,OpenAI發布ChatGPT引發全球AI熱潮。2024年2月文生視頻大模型Sora發布,再次引發新一輪熱潮。算法技術全面步入應用階段,但同時也引發了諸如算法歧視、算法黑箱、信息繭房、算法霸權等法律甚至倫理的一系列問題。
如何在促進發展的同時,更好完善人工智能算法治理體系,監管手段和能力如何提升,對我國相關產業的發展和國家治理能力現代化至關重要。對此,全國政協委員、金杜律師事務所高級合伙人接受中國網財經采訪時表示,建議盡快推進《人工智能法》的出臺,構建人工智能算法治理體系,彌補監管體系空白。“可考慮探索將人工智能技術應用于人工智能監管,以提高監管效率”。
以下為具體建議內容:
(一)盡快推進《人工智能法》的出臺,構建人工智能算法治理體系,彌補監管體系空白。同時,可考慮通過針對性的法規予以補充規范。針對產業鏈上各主體,采取權責相統一原則,根據不同主體對于人工智能系統的控制力度來加諸相應的合規義務。將人工智能和算法技術按風險等級進行劃分并采取不同監管措施,并設置事前、事中和事后全生命周期監管措施義務。
(二)強化和創新算法監管。強化由網信牽頭,發展改革、數據、工信、公安等多部門共同參與的算法治理聯席會議制度,完善“橫向協同,縱向聯動”算法治理格局。借助市場力量,外聘或者借調算法及人工智能領域的專家共同參與監管流程,補齊監管技術短板。引入“監管沙盒”制度,允許算法及人工智能企業在監管機構的監督下,于相對可控的環境內進行試驗性的開發、測試和驗證。此外,或可考慮探索將人工智能技術應用于人工智能監管,以提高監管效率。
(三)進一步保障用戶權利。推進算法服務商以個人能夠理解方式披露算法風險與可能產生的損害、算法運行步驟與決策結果間關系等運行規則,減少專業術語,便于用戶理解和決策。要求算法服務商在個人用戶決定選擇拒絕使用算法服務的情況下,進一步優化用戶便捷關閉算法服務的選項。
(四)拓展算法侵害行為維權路徑與責任模式,增強用戶維權力量。在算法侵權的訴訟中采取“過錯推定”歸責原則,實行 “舉證責任倒置”。用戶僅承擔受到算法損害的責任,由算法服務商對算法和損害之間無因果關系,以及無過錯承擔舉證責任。探索人工智能算法領域的民事公益訴訟制度。此外,不宜局限于要求具體損害結果的責任模式,可考慮綜合考量訓練數據、科技倫理等多維度規定算法侵害行為的違法責任,增強源頭治理,形成責任閉環。
來源:中國網財經 記者 暢帥帥
評論