2021年8月,《個人信息保護法》出臺,在國家法律的層級上針對自動化決策算法確立了規制基礎。2021年12月底,《互聯網信息服務算法推薦管理規定》(簡稱“《算法推薦規定》”)由網信辦、工信部、公安部、國家市場監督管理總局聯名簽署對外公布,并已于2022年3月1日正式實施。這不但是我國首次以“算法”為名的法律文件,更是世界范圍內全面回應算法挑戰的體系性嘗試。根據《關于加強互聯網信息服務算法綜合治理的指導意見》,未來三年是關鍵階段,到2025年前,我國治理機制健全、監管體系完善、算法生態規范的算法綜合治理格局將日漸成型。
值此算法治理的中國實踐進行之時,學說理論紛呈而合規落地尚存猶疑之際,對外經濟貿易大學數字經濟與法律創新研究中心邀請來自學術單位、實務部門的學者專家,于近期就算法治理的實踐、算法備案制度和算法評估制度開展討論,以期助力后續的規則制定、執法指南和學術研究。
對外經濟貿易大學法學院院長
梅夏英:
算法研究應當具有展望性
算法技術對法律人而言確為一個“黑箱”,我們所關注和討論的也并非算法本身,而是算法所引發的社會問題。需要厘清算法與傳統的監管對象是否有區別以及有何種區別,是服務、產品還是技術層面上的內容;是社會規則、倫理還是法律問題。在厘清區別的基礎上,再通過突破傳統的、新的方法來規制算法。因為算法治理在法律層面上是新生事物,不能完全照搬原來的市場監管手段。目前的研究應當是具有展望性的,因為算法升級換代快,越來越先進,技術手段各方面都在發展,算法的形態也在發展,我們應該要站得更高一些,想象未來算法的形態,從社會整體而非局部的角度解決問題。
業界實務專家的觀點:
算法制度有待細化、明確、協調
來自阿里巴巴、字節跳動、京東、美團的實務專家基于第一線的實踐提出了富有啟發的觀點。
算法分級分類機制有待細化。《算法推薦規定》中雖然提出了分級分類的監管思路,但只是對算法服務提供者的分級分類,而非對具體算法應用的分級分類,如果只是按照算法服務提供者的維度要求算法備案可能會造成企業的負擔或者無法實現算法監管的根本目標。實踐中,不同的算法應用有著不同的正面和負面作用,對于社會福祉、個人權利、傳播秩序有著不同程度的影響。未來,建議綜合考慮算法的應用場景、處理數據的風險程度、算法使用的正向效益和可能的社會危害等多種維度,實現算法監管的分類分級,落實多層次場景化、精細化的分級分類的算法治理工作,更有利于實現提升算法價值及保護公共利益之間的平衡。
算法備案中法律效果有待明確。目前立法尚未解決算法規則生效的條件,算法規則生效后的作用以及算法規則在未來應以何種形式在平臺上公示。算法規則一經公示生效后,用戶是否可以將其作為主張權利的依據都是未來法律適用和業務實踐需要解決的問題。
算法治理有待進一步協同。算法應用從研發到投入使用需要歷經漫長的生命周期,在往前回溯的過程中,法律合規人員難以識別風險,是算法監管困難的重要原因。未來,可以讓法律部門和技術部門共同制定算法合規風險點,優化自身流程以確保算法在運行過程當中的可管可控。此外,還可以引入公共管理領域中的“協同治理”,使利益相關者和參與者共同參與算法的治理活動。
北京科技大學副教授張凌寒:
算法備案制度很多問題要研究
算法備案制度產生最主要的原因是,我們很難通過算法結果倒推當時部署運行算法時存在的主觀過錯。算法備案制度旨在使得平臺在上線部署運行算法之前,向行政機關做一個存檔備查的行為,為以后的監管提供信息基礎。現階段進行的備案,特別需要厘清目前涉及算法備案的算法體量有多少,種類有多少,監管系統和監管能力能不能達到監管目的。實現算法備案制度還需討論誰來備案、如何備案、備案什么這些問題。平臺功能越來越多元化,具備輿論屬性和社會動員能力的算法服務提供者的界限逐漸模糊。
中國政法大學大數據和人工智能法律研究中心主任沈偉偉:
備案能幫助平臺澄清主體責任
需要重視跨國算法治理。我們需要看到其他國家如何進行算法評估、備案、審計等,以此作為參照系來制定我國的算法備案以及后續評估的制度。分析算法備案與平臺責任的聯系,算法備案似乎是公權力強加給平臺的責任或義務,不履行會受到相應的懲罰。但平臺,尤其是科技向善的平臺可能會更愿意備案,因為算法備案在某種程度上具有歐盟“隱私盾”的部分效果,即在一個強監管環境下,作為一個免責的條件或者作為平臺責任的某種抗辯。換言之,平臺一旦進入到類似于隱私盾的備案體系,備案能幫助其澄清一些主體責任。
伯明翰大學LEADS Lab研究員李汶龍:
需要思考算法備案對監管是否有效
國外的算法備案基本都是面向公共部門的,由于其自身的局限性,跟影響評估和機制審計相比,它可能扮演一個很小的角色。可以從反面入手判斷備案的法律性質以及決定它的內涵,即當把其它機制進行完畢后再根據具體情形判斷算法備案到底能做什么。我們需要明確算法信息的傳播和備案對監管而言是否有效,以及我們如何設計算法備案這樣特殊形式以匹配切實所需的擬公開信息。當實務界、理論界把過多的資源、關注和公共討論都放在透明問題上時,算法透明和算法備案的最終目的在很大程度就會被淡化。在討論算法備案時,承認并明確算法透明的局限性也是一個非常重要的環節。
清華大學智能法治研究院院長助理劉云:
算法備案是風險治理機制的備案
我國的算法備案是風險治理機制的備案,而不是算法內容的備案。風險治理機制的備案包含四個方面的內容:其一,平臺自查因使用算法可能帶來的風險,也包括諸如透明度、公平性、包容性等一系列的風險。其二,對于風險,平臺的預防措施是什么。其三,平臺在風險發生時的風險處置規則是什么。其四,風險發生造成危害后,平臺的責任承擔方式是什么。
算法備案的目的有三。直接目的是掌握算法的基本信息。但僅掌握情況沒有意義,更重要的是為制定政策或者后續執法做儲備。其次,算法備案還能促進企業自查。最后,算法知識普及這一目標同樣不可忽略。相比以前的產品說明書,對于大部分消費者而言,算法是可望不可及的,此時政府通過算法備案將算法基本原理向公眾進行普及,促使用戶更好地維護自己的權利。
對外經濟貿易大學數字經濟與法律創新研究中心主任許可:
高風險、普遍影響社會公眾的算法
才需備案
算法備案既非公非私,又亦公亦私,需要準確理解其性質。一方面,非公非私是因為算法備案并非具有公權性質的行政許可,但也不是算法解釋權的落實,并不是私權的一部分。另一方面,亦公亦私因為從國家監管層面來說備案是一種監管方式,是落實了行政上的告知式的備案和行政監督式的備案,且這些備案信息可以作為用戶侵權案例中消費者訴訟的理由。
若從公私兩個視角觀察算法備案的主體,應該更加強調大型平臺而不限于輿論屬性和社會動員能力。對于內容來說,并不是平臺所有的算法都要進行備案,而是具有高風險、普遍影響社會公眾的算法才需要備案。就法律效果而言,算法問責是算法備案在“公”方面的體現,有了算法備案,可以更加精確地判斷企業的行為是否違反法律法規,是否侵犯了相關用戶權益,實現規則的精確化和有效規制。而推動企業自我監管則是備案在私方面的作用。對于監管者來說,從外到內的治理是非常重要的環節。
北京大學法學院副教授胡凌:
算法評估可分為兩類
需要從成本比較和收益分析的角度觀察算法評估。評估分為兩大類:一般性的自我評估和法律中有特殊要求的評估。前者無處不在,哪怕政府不要求,理性的企業也會進行評估;需要重點討論的是第二種評估。如果法律特別看重某一類型的算法評估,則會逐漸內化為內部的評估機制。兩者的關聯在于,法律是否關注某個特別的評估要素。因為企業在應對風險時有不同的原則,有的是風險預防,有的是成本收益,風險預防則需要將注意力放在較前階段。如果此時風險特別大而且是所有人都可以意識到的風險,就會涉及到第二類評估,即企業發現政府在特別關注某一類或某一種服務,因此在算法研發時就需要進行評估,衡量風險。
對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣:
算法評估是算法治理的重要路徑
算法在整個全球數字經濟當中的地位日益重要,最高院司法解釋也明確提出,算法技術計算機程序是企業的重要價值。世界各國采取的算法治理舉措可能不同,但無論是采取何種治理模式的國家,包括算法自動化決策在內的算法評估始終是其中的重要路徑。算法評估有幾個維度必不可少,包括技術維度、應用維度、影響維度、救濟維度。同時,算法分級分類對精準治理非常關鍵。首先,不同的算法分級分類,除了監管層面有很大意義外,對企業合規意義也是非常重大。其次,從架構的角度而言,算法應用維度的分級分類可以幫助企業和監管機構計算出相應的算法等級,并匹配差異化的監管框架。總體來講,我國在這次算法新規當中將算法影響評估嵌入到算法分類分級和算法精準治理這個理念之下。但要實現精準治理,還需要從算法設計運行和部署主體的視角進行分類分級。(金燦 )