• 歐盟人工智能立法:安全優先,兼顧公平
    來源: 人民論壇 作者: 發布時間: 2024-03-01

    人工智能是一把“雙刃劍”,在促進社會進步的同時,也帶來了風險與挑戰。國際社會致力于持續推動人工智能向善發展。例如,聯合國教科文組織通過了首份人工智能倫理問題全球性協議——《人工智能倫理問題建議書》,明確了相稱性和不損害、安全和安保、公平和非歧視等10項原則。歐盟自2018年以來持續推進人工智能的設計、開發和部署,同時努力規范人工智能及機器人的使用和管理。2024年初生效的歐盟《人工智能法案》助推此項工作達到高潮,甚至成為人工智能治理史上的里程碑。

    從立法歷程上看,2021年4月,歐盟委員會發布了立法提案《歐洲議會和理事會關于制定人工智能統一規則(人工智能法)和修訂某些歐盟立法的條例》(以下簡稱《人工智能法案》),開啟了人工智能治理的“硬法”道路。2022年12月形成了《人工智能法案》折中草案的最終版。2023年6月,歐洲議會通過了《人工智能法案》的談判授權草案,并修訂了原始提案。2023年12月8日,歐洲議會、歐洲理事會和歐盟委員會三方就《人工智能法案》達成協議,法案規定了對人工智能領域的全面監管。從總體上看,《人工智能法案》在歐盟建立起人工智能開發、使用的道德和法律框架,并輔以《人工智能責任指令》確保落地執行。

    人工智能的定義與法案適用范圍

    《人工智能法案》第3條將人工智能定義為一種或多種技術和方法開發的軟件,其能夠影響交互環境的輸出(如內容、預測、建議或決策),實現人為指定的特定目標。

    該定義范圍較為廣泛,可能涵蓋大量傳統上不被視為人工智能的軟件,不利于人工智能的發展和治理。因而,當前版本將人工智能定義限縮為“基于機器學習或邏輯和知識的系統”,旨在以不同的自主性水平運行,并且為了明確或隱含的目標,可以影響物理或虛擬環境的預測、建議或決策等輸出。同時,刪除了附件一和歐盟委員會修改人工智能定義的授權。《人工智能法案》雖未涉及生成式人工智能,但ChatGPT的出現使得立法者在修正案中增加了通用人工智能和基礎模型的相關定義,并要求生成式人工智能遵守額外的透明度要求,如披露內容來源、設計模型禁止非法生成。

    《人工智能法案》具有域外效力,適用于所有人工智能系統的提供商和部署者(無論是在歐盟還是在第三國建立的)以及所有分銷商和進口商、提供商的授權代表,在歐盟建立或位于歐盟的某些產品的制造商,以及健康、安全或基本權利因使用人工智能系統而受到重大影響的歐盟數據主體。

    人工智能的監管模式

    《人工智能法案》采用了基于風險的分級監管方法(risk-based approach),根據對健康、安全和自然人基本權利的潛在風險對其進行分類并設置不同義務:一是不可接受的風險,禁止任何企業或個人部署;二是高風險,允許相關主體在履行事前評估等義務后投放市場或使用,同時要求事中、事后持續監測;三是有限風險,無須取得特殊牌照、認證或履行報告、記錄等義務,但應遵循透明度原則,允許適當的可追溯性和可解釋性;四是低風險或最低風險,相應主體可依據自由意志部署和使用。具體到生成式人工智能而言,由于其沒有特定目的并且可應用于不同場景,故不能基于一般方式或操作模式對其進行風險分級,而應當按照開發或使用生成式人工智能的預期目的和具體應用領域分級。

    人工智能的一般原則

    人工智能的一般原則具體包括:人類代理和監督:人工智能系統的開發和使用必須作為服務于人類的工具,尊重人類尊嚴、個人自主性和功能,并由人類適當控制和監督;技術穩健性和安全性:人工智能的開發和部署應最大限度地減少意外和意外的損害,確保在出現意外問題時的穩健性以及在惡意第三方試圖改變人工智能系統性能而非法使用時的彈性;隱私和數據保護:人工智能系統必須按照現有的隱私和數據保護規則開發和使用,同時處理在質量和完整性方面符合高標準的數據保護規則;透明度:人工智能系統的開發和使用方式必須允許適當的可追溯性和可解釋性,讓人類意識到他們在與人工智能系統進行通信或互動,并適當地告知用戶人工智能的能力和局限性以及受影響之人享有的權利;非歧視和公平:人工智能系統的開發和使用必須包括不同參與者,促進平等使用、性別平等和文化多樣性,同時避免歐盟或國家法律禁止的歧視性影響和不公平偏見;社會和環境福祉:人工智能系統應以可持續和環保的方式開發和使用,讓所有人受益,同時監測和評估對個人、社會和民主的長期影響。

    歐盟意圖通過《人工智能法案》建立人工智能監管全球標準,進而使歐洲在國際智能競爭中取得優勢地位。《人工智能法案》為處理人工智能系統制定了相對合理的規則,在一定程度上可以避免歧視、監視和其他潛在危害,特別是在與基本權利相關的領域。例如,《人工智能法案》列出了禁止人工智能的某些用途,公共場所的面部識別便是其一。此外,其將確定減輕風險的控制措施整合到可能出現風險的業務部門中,能夠幫助各組織了解人工智能系統的成本效益,開展合規(自我)審查明確責任和義務,最終自信地采用人工智能。但同時,《人工智能法案》在風險分級、監管力度、權利保護與責任機制等方面亦有缺陷,如其采用的是橫向立法,試圖把所有人工智能都納入監管范圍,而未深入考量人工智能之間的不同特性,可能會導致相關風險防范措施面臨無法執行的問題。(作者:浙江大學光華法學院教授、博導 程樂


    地方動態

    第四次數據標注產業供需對接會暨央企走進國家數據標注基地(保定)舉行

    算力與綠電協同:中金數據烏蘭察布打造中國源網荷儲一體化零碳算力標桿

    2025數據服務業發展研討會在京召開

    A股產業互聯網平臺公司高質量發展研討會在京成功舉辦

    • 協會要聞
    • 通知公告
    初爱视频教程完整版免费观看高清