全國政協委員張毅:人工智能產業發展和監管要“剛柔并濟”,避免過度監管成為發展“緊箍咒”
記者鄭雪北京報道
今年2月文生視頻大模型Sora發布,再次引發全球AI熱潮。熱浪之下,人工智能如何朝著正確的方向行進?
人工智能算法監管或是可行路徑之一。算法,對于公眾而言既陌生又熟悉。算法具有非常強的專業性及不可解釋性,但日常生活,每個人都在不時接受不同應用場景下的各種算法結果。此外,對于人工智能產業發展而言,作為加速器的算法和數據、算力共同作用推動智能涌現。基于此,全國政協委員、金杜律師事務所高級合伙人張毅帶來了《關于進一步完善人工智能算法治理體系的提案》。
張毅在接受記者專訪時表示,當前我國人工智能算法治理存在法律法規效力層級不高、監管機構監管競合、監管真空或失焦、用戶權利難以充分救濟等問題,可從健全算法綜合治理體系、優化監管工具、加強用戶權益保護等方面著手完善。
在產業發展和監管平衡方面,張毅表示要設置“包容審慎邊界——劃定安全底線”的剛柔并濟路徑。一方面,要逐步明確行政程序規則,讓監管治理成為人工智能安全發展的“穩定器”;另一方面,全球產業競爭加劇之下,警惕過于強勢的法律干預成為人工智能發展的“緊箍咒”。
強化源頭治理,實現前中后監管閉環
21世紀:伴隨人工智能快速發展,人工智能監管也在全球競速。在您觀察來看,全球人工智能監管有何異同?
張毅:從監管進程來看,目前全球人工智能監管尚處于不斷變化的立法活躍期。除我國已制定全球首部針對生成式人工智能的法規《生成式人工智能服務管理暫行辦法》外,歐盟、英國、美國等主要司法轄區均處于探索和制定人工智能監管規則的不同階段。
回過頭看,全球人工智能監管在近幾年內經歷了從分散林立的差異化規則,到相互影響融匯并求同存異的過程。
盡管由于各國的人工智能產業發展情況與監管動因等因素不同,存在諸多具體監管規則的差異。這包括但不限于各國對于采取縱向或橫向的立法模式、人工智能的風險認知框架,以及對開源模型的監管方法等議題存在不同的立場。
但從近期的立法動態來看,可以觀察到全球范圍內正在努力建立人工智能監管共識。一方面,國外諸多司法轄區正在從以政策倡議、行業自律等“軟法”為主導逐步轉向制定正式立法的“軟法”與“硬法”協同治理模式。另一方面,還可以看到區域性、國際性的人工智能監管共識的凝聚,這是由于人工智能其實是國際社會共同面臨的治理難題。
21世紀:人工智能算法治理方面,我國算法治理目前存在哪些問題?
張毅:作為全球范圍內最早開展人工智能算法治理的國家之一,我國近年來陸續針對算法推薦、深度合成等技術制定專門規范,逐步完善我國的算法治理體系。但隨著技術的高速發展和廣泛應用,人工智能算法治理更要體現監管智慧和制度優勢,現階段有必要重估新技術帶來的新問題,更新治理思路并反饋在立法、執法等治理實踐中。
具體而言,我國算法治理工作可以考慮從立法、執法到司法等全流程、多維度的更新和優化。比如,在算法監管規定方面,現階段我國算法治理規定主要由部門規章、規范性文件等構成,缺乏效力層級較高的立法。在監管機構方面,可能有多個部門具有執法權力,產生監管競合。在算法侵害維權方面,雖然現有規定對算法侵害行為作出禁止性規定,但是被算法侵害的對象往往面臨“理解難”“取證難”等問題,用戶權利難以得到充分救濟。此外,由于人工智能技術更新迭代快,難以為現有監管體系和技術覆蓋,從而產生監管真空或失焦的情況。
21世紀:在您看來,當前我國算法治理體系如何予以完善?
張毅:我國算法治理體系可考慮從健全算法綜合治理體系、優化監管工具、加強用戶權益保護等方面著手完善。
首先,目前我國算法監管規定主要關注具體權利侵害的結果維度,暫未結合算法的特殊性,關注訓練數據、科技倫理等源頭性因素可能造成的算法侵害。未來,應當增強源頭治理,將算法侵害治理追溯至算法設計、研發等前期過程,實現事前、事中和事后的監管閉環。
再者,考慮到算法更迭快、技術繁復等因素,可以引入“監管沙盒”制度來允許算法及人工智能企業在相對可控的環境內進行試驗性的開發、測試和驗證,也有助于增進監管部門對技術發展的理解。同時,也可以考慮探索將人工智能技術應用于人工智能監管,以提高監管效率。
此外,在用戶權益保護方面,可要求服務提供者優化平臺設計,在為用戶提供算法服務時,為用戶提供便捷的拒絕或關閉算法服務的選項,暢通用戶投訴、申訴渠道。在訴訟環節,可嘗試拓展算法侵害行為的維權路徑與責任模式,采用“過錯推定”的歸責原則,實行“舉證責任倒置”以減輕用戶的舉證責任負擔,增強用戶的維權力量。
行政機關需納入算法監管客體
21世紀:您在提案中寫道,當前“監管客體僅限于互聯網平臺等民商事主體提供的算法服務,不涉及政府機關在行政活動中運用算法的行為”,行政機關的算法行為如何監管?
張毅:實踐中,在生成式人工智能的賦能下,算法在行政管理和執法的應用場景已迅速拓展豐富。例如,目前市場上已有大模型可以實現由數字人自動化處理政務熱線中的民生訴求,智能識別違法行為并完成立案登記等落地場景。
可以預見,在生成式人工智能的高速發展態勢下,算法在行政管理和執法應用場景會更日趨精細化、多樣化,除可能面臨人工智能應用的常規風險外,也會對傳統行政程序、行政相對人的權利保障機制的有效性等提出新的挑戰。
因此,我們可以考慮以充分調研梳理當前算法行政管理和執法應用場景作為監管起點,通過厘清算法嵌入不同行政行為的具體效應、影響和風險,并加以類型化分析來為后續政策制定及立法提供支撐。
在調研成果基礎上,我們還建議人工智能算法規范進一步優化銜接現行法律制度。一是從責任主體銜接角度,考慮將行政機關納入算法管理規定的監管客體;二是增強與現行行政法律制度的有效銜接,并就此對算法行政行為采取針對性規制。例如,考量如何明確算法行政行為的適用范圍與條件,如何確保其符合我國政府信息公開制度的要求,如何在算法行政行為中確保行政正當程序并切實保障法律賦予行政相對人的權利等問題。
21世紀:目前來看,即便是技術人員對AI算法的一些內容也無法作出解釋,或將導致“黑箱”加劇。在保障人工智能可解釋性和透明性方面,您認為可以采取哪些措施?
張毅:人工智能“算法黑箱”是全球范圍內的技術和治理難題。縱觀全球算法治理趨勢,增強算法透明仍是一種共同治理取向。在此背景下,可考慮采取如下措施而在一定程度上提高算法的可解釋性和透明性:
就人工智能算法服務提供者而言,一方面,應當推動相關主體詳盡地披露算法運行步驟、算法運行步驟與算法決策之間的因果關系、使用算法可能對用戶權益造成的影響等內容,增強算法對于用戶的可知性。考慮到部分算法專業術語晦澀難懂,可要求相關主體通過示例圖、流程圖等方式及通俗易懂的語言進行說明。另一方面,企業在設計、研發人工智能算法時宜嵌入透明可釋的目標,推動算法透明的全流程治理。
就監管規則而言,可考慮在分類分級監管的基礎上,以人工智能算法類型等要素為依據以制定差異化的透明度規則,促進算法問責的落實。其中,透明度規則應重點關注解釋、披露何種內容方可實現用戶、社會及監管部門對算法應用影響的理解,而非要求披露對于理解算法影響效果較為有限的純粹技術信息,從而在充分權衡商業秘密、知識產權保護等的基礎上保障用戶權益及社會公共利益。
以剛柔并濟平衡發展與安全
21世紀:此輪人工智能發展展示了“大力出奇跡”的暴力美學,海量數據(603138)、算力、算法作用下,智能涌現。中國在數據、算力等方面具有豐富積累,在您看來,如何發揮上述優勢推動人工智能發展?
張毅:數據與算力作為我國數字經濟時代下的新型生產要素與新型生產力,共同推進人工智能技術的高效發展。
為進一步布局人工智能產業發展,充分發揮我國在數據與算力方面的成果積累,在數據方面,應加快建設數據產權制度,構建數據要素市場,推動數據產權結構性分置和市場化有序流通,打破數據壁壘,從而在市場機制與行政監管的雙重治理體系下充分發揮數據資源的乘數效應,例如打造數據中心、實現優質的多模態數據集的開放流通,從而支持人工智能的訓練優化等以數據為依托的研發應用。
在算力方面,鑒于高水平的人工智能離不開大規模算力資源支撐,一方面,有必要集中強健的算力資源,比如建造區域化、行業化的算力中心,加強算力資源的投資投入,夯實人工智能的基礎底座建設。另一方面,可以考慮深入剖析業務實踐場景與算力應用的可融合性,拓寬人工智能應用的垂類領域,催生新業態、新模式。
21世紀:目前來看,我國人工智能產業發展和OpenAI等仍存有差距,但人工智能監管勢在必行。在您看來,如何平衡產業發展和監管?
張毅:產業發展和監管的平衡其實是對任何新型技術進行治理的經典問題。我們過往在對金融科技、區塊鏈等新技術的治理實際上已積累了豐富的監管經驗。因此,在人工智能監管實踐中也能看到對之前互聯網監管領域積累的成功治理經驗的承繼,比如在治理之初就已經采取“審慎包容”這一中國互聯網治理領域的“長期主義”原則。
但人工智能治理的特殊性在于,其對社會乃至人類經驗空間的影響深度與廣度是前所未有的。面對發展日新月異的人工智能技術,傳統的監管手段從認識到實際治理人工智能均會面臨一定的瓶頸。
因此,要在實踐層面落實“包容審慎”的治理理念,可能還有賴于對人工智能產業發展現狀與痛點、引發的風險程度與范圍等進行充分調研,設置“包容審慎邊界——劃定安全底線”的剛柔并濟路徑,尋求平衡發展與監管的“破題”之策。這一方面意味著需要逐步明確行政程序規則,將相對成熟的監管實踐“硬化”,以便“安全底線”落到實處,讓監管治理措施成為人工智能安全發展的“穩定器”;另一方面則是在全球人工智能產業競爭加劇之當下,在人工智能法律規制方面,也需要警惕過于強勢的法律干預成為人工智能健康有序發展的“緊箍咒”。