【環(huán)球視野】?
作者:柳建龍(中國社會科學院大學法學院教授)
(資料圖片)
隨著人工智能技術的應用和發(fā)展,人們對它可能帶來的收益和風險的認識日益深刻。當下,人工智能的跳躍式發(fā)展在給人類社會帶來廣闊前景的同時,也給個人安全和保障帶來很大風險,增加了侵犯人類基本權利的可能性。然而,各國政府卻普遍存在欠缺權力、程序框架和資源以確保人工智能的發(fā)展和使用符合法律規(guī)定的能力。
如何從立法著手促進人工智能產(chǎn)業(yè)的健康發(fā)展,成為迫在眉睫的課題。
從跨國視角來看,碎片化的監(jiān)管措施會妨礙跨境人工智能市場的形成,并威脅到數(shù)字主權。為此,歐盟出臺了一系列措施鼓勵企業(yè)發(fā)展人工智能解決方案。本月底,《關于制定確立人工智能統(tǒng)一規(guī)則(人工智能法)以及修改部分聯(lián)盟法律的歐盟議會和歐盟理事會的條例的提案》(以下簡稱“草案”)將提交歐盟議會表決。如獲通過,意味著該法案將成為具有拘束力,可在歐盟成員國內(nèi)直接適用的法律。
目前,草案已提交歐盟議會一讀。草案為調和人工智能的發(fā)展和利用與歐盟國家社會價值觀和公民基本權利保障,對人工智能的概念和分類,高風險人工智能系統(tǒng)的提供者、使用者及其他人的義務、法律后果等作了詳細的規(guī)定。鑒于當下人工智能技術的發(fā)展、利用以及流轉程度的加深,特別是在日益復雜的全球科技格局和國際關系背景下,有必要對相關動態(tài)予以進一步關注。
1.監(jiān)管“黑箱”技術的核心訴求
統(tǒng)一人工智能立法對于歐盟而言,最重要的訴求就是要確保投放到歐盟市場的人工智能系統(tǒng)及其使用的安全性。近來,人工智能系統(tǒng)的平民化使得藏在“黑箱”里的新技術變得觸手可及。人工智能變得可以與普通人“交流”,但是它的好多“想法”卻讓人產(chǎn)生不安。
怎么才能確保人工智能尊重現(xiàn)行法律中所包含的價值觀和基本權利成為一個現(xiàn)實問題。人工智能可以“理解”歐盟社會的價值觀嗎?如何讓一個智能系統(tǒng)符合歐盟對于建立一個包容、寬容、公正、團結、非歧視的社會的期待?尊嚴、自由、平等、民主、法治、人權保障等理念如何經(jīng)由對人工智能系統(tǒng)的分類處理、細化各類主體的職責和義務、完善有關程序,進而被強化、具體化、內(nèi)化到人工智能安全規(guī)定本身之中?《歐盟基本權利憲章》所保障的基本權利又如何能通過人工智能系統(tǒng)得到推進,如:人性尊嚴、尊重私生活和保護個人數(shù)據(jù)、不受歧視權和男女平等、獲得有效救濟和公平審判的權利、辯護權和無罪推定等以及一些特殊群體的權利,如工人享有公平和公正的工作條件的權利、消費者權益保護、兒童權利和殘疾人的復歸社會,與人們的健康和安全有關的,如獲得高水平的環(huán)境保護和改善環(huán)境質量的權利。
從更宏觀的層面來看,人工智能沒有國界,未來它很可能被用于不同國家的經(jīng)濟和社會部門,在整個歐盟內(nèi)或者跨境進行流轉。部分成員國已經(jīng)制定了相應的法律,但這種做法對于人工智能的經(jīng)營者而言,容易欠缺法律的穩(wěn)定性。因此,制定統(tǒng)一的法律框架、確保法律的確定性和可預見性,進而促進人工智能的投資和創(chuàng)新成為迫在眉睫的問題。
歷史上,各自為政的立法措施造成市場碎片化的案例屢見不鮮。制定統(tǒng)一的法律框架,可以促進合法、安全和可靠的人工智能的應用,確?;谌斯ぶ悄艿呢浳锖头盏目缇匙杂山y(tǒng)一市場的形成。不過,值得注意的是,草案旨在確立統(tǒng)一的法律框架,而非具體法律規(guī)范,這為成員國在不損害立法目標的情況下采取不同程度的行動,特別是市場監(jiān)督系統(tǒng)的內(nèi)部組織和促進創(chuàng)新措施的采納,留下了空間。
2.從寬泛界定到細化指引
最初的“草案”對人工智能系統(tǒng)作了寬泛界定,將其界定為采取一種或多種技術和方法開發(fā)的軟件,并且能夠針對一組特定的人工定義的目標,產(chǎn)生諸如內(nèi)容、預測、建議或決定等影響其互動環(huán)境的輸出。不過,歐盟理事會認為,標注過于寬泛難以提供清晰的指引,為此,進一步將人工智能的范圍縮小,即通過機器學習以及以邏輯和知識為基礎的方法發(fā)展起來的系統(tǒng),以區(qū)別于一般軟件系統(tǒng)。
按照對個人人身和安全、基本權利可能造成的風險高低,《歐盟人工智能法》將人工智能系統(tǒng)分為三類加以區(qū)別處理,分別是禁止、高風險、非高風險三類。
草案禁止人類的人工智能實踐及實時遠程生物識別系統(tǒng)的運用作了規(guī)定。首先,禁止在市場上投放、交付使用的包括:以個人無法認知的方式,采用潛意識教化技術嚴重扭曲個人行為或者利用特定群體的年齡、殘障或者特定社會或經(jīng)濟處境等弱點,其目的旨在或者效果為嚴重扭曲與該群體相關的人的行為,業(yè)已或可能對個人生理或心理造成傷害的人工智能系統(tǒng),以及根據(jù)自然人的社會行為或者已知或預測的個性特征或人格特征,在一定時期內(nèi)對自然人進行評估或分類,但其所產(chǎn)生的社會評分可能造成自然人或其整個群體在社會環(huán)境中受到不利或不適宜待遇的人工智能系統(tǒng)。
與此同時,草案對實時遠程生物識別系統(tǒng)的使用作了一般性禁止規(guī)定。其例外情形作了嚴格限制,當且僅當其使用存在絕對必要性時,執(zhí)法機關或受其委托者可在公共場所訴諸前述系統(tǒng)。
高風險的人工智能指可能對個人健康、安全及基本權利產(chǎn)生重大有害影響的人工智能。草案雖然未作明確界定,但給出了高風險人工智能系統(tǒng)的判斷標準。具體而言,下列人工智能系統(tǒng)應視為高風險人工智能系統(tǒng):根據(jù)歐盟統(tǒng)一立法清單,相關產(chǎn)品或者作為其安全部件的人工智能系統(tǒng)本身,在投放市場或者投入使用前需要接受第三方合規(guī)評估的,如運輸、機械、電梯、壓力設備、醫(yī)療設備、安全設備、無線電設備的人工智能系統(tǒng);旨在用于包括自然人的生物識別和分類、關鍵基礎設施的管理和運作、教育和職業(yè)培訓、就業(yè)、執(zhí)法、移民、難民和邊境管制以及司法和民主過程等領域的人工智能系統(tǒng);就其嚴重程度和發(fā)生概率而言,其對個人健康、安全和基本權利造成不利影響的風險極大的人工智能系統(tǒng)。
與前述相比,諸如聊天機器人之類的非高風險人工智能技術,只需要滿足最低限度的透明性要求。草案起草者認為,只要告知用戶他正在與人工智能進行互動就可以減少潛在風險,故其對個人的健康、安全及基本權利造成損害的可能性較小。
3.高風險技術需要全過程監(jiān)管
對高風險人工智能系統(tǒng),草案設計了全過程監(jiān)管制度。高風險人工智能系統(tǒng)“從搖籃到墳墓”——自投放市場或投入使用前直至整個存續(xù)期間——都要接受審查,以確定其是否遵守強制性的風險管理系統(tǒng)、嚴格的數(shù)據(jù)和數(shù)據(jù)治理規(guī)定,技術文件和日志保存的規(guī)定及上市后監(jiān)測和事故報告的規(guī)定。與之相應,草案對高風險人工智能系統(tǒng)的提供者課以較重義務。
提供者負有合規(guī)義務。提供者應確保高風險人工智能系統(tǒng)的預期使用目的符合規(guī)定,按照規(guī)定建立、運行、記錄并維持風險管理系統(tǒng),并確保人工監(jiān)管的準確性、韌性和安全性。
提供者應建立合理的質量管理系統(tǒng),并以書面政策、程序和指令的形式系統(tǒng)、有序地載明該質量管理系統(tǒng),確保合規(guī)程序的執(zhí)行、相關文件的草擬以及強有力的售后監(jiān)管制度的建立;確保高危人工智能系統(tǒng)在投放市場或投入使用前,經(jīng)過相關的評估程序。在高風險人工智能系統(tǒng)投放市場或投入使用前,提供者應起草并持續(xù)更新技術文件。技術文件的編制方式應能證明高風險人工智能系統(tǒng)符合歐盟人工智能法的要求,并為國家主管部門提供全部必要的信息,以評估人工智能系統(tǒng)是否符合這些要求。
提供者有記錄保存義務。在人工智能系統(tǒng)投放市場或者投入使用之日起的10年內(nèi),提供者應保存技術資料、質量管理系統(tǒng)相關文件等以備檢查。依照與用戶的協(xié)議或法律規(guī)定由其控制高危人工智能系統(tǒng)自動生成的日志的,則提供者有義務保存上述日志。保存期限根據(jù)高危人工智能系統(tǒng)的預期使用目的、歐盟或成員國的法律規(guī)定予以確定。在投放市場或投入使用前,提供者應依法向歐盟委員會在成員國協(xié)助下設立的歐盟數(shù)據(jù)庫申請登記。歐盟數(shù)據(jù)庫應只包含根據(jù)本條例收集和處理信息所必要的個人數(shù)據(jù)。這些信息應包括負責注冊系統(tǒng)的以及有權代表供應商的自然人的姓名和聯(lián)系方式。倘若提供者認為或有理由認為其投放市場或投入使用的高風險人工智能系統(tǒng)不符合規(guī)定,應立即采取必要的糾正措施,酌情撤回或召回。他們應告知有關高風險人工智能系統(tǒng)的經(jīng)銷商,并在適用時告知授權代表和進口商。
4.人工智能發(fā)展違法必究
一旦草案獲得批準,成員國應根據(jù)相關規(guī)定和條件制定相應罰則,采取必要措施確保這些規(guī)定得到適當和有效的執(zhí)行。所規(guī)定的處罰應是有效的、相稱的和教育性的,并應特別考慮到小規(guī)模提供者和初創(chuàng)公司的利益和經(jīng)濟生存能力。
草案規(guī)定,提供者違反有害的人工智能禁止性規(guī)定和數(shù)據(jù)治理義務的,可以處以最高3000萬歐元的罰款或全球年營業(yè)額的6%(以較高者為準);高風險人工智能系統(tǒng)的使用違反其他規(guī)定的,可以處以最高2000萬歐元或營業(yè)額的4%的罰款;向成員國主管機構提供不正確、不完整或具有誤導性的信息,將被處以最高1000萬歐元或營業(yè)額2%的罰款。
草案規(guī)定,歐盟機構、機關違反有關禁止性人工智能和數(shù)據(jù)治理義務規(guī)定的,可以處以最高50萬歐元的行政罰款;違反其他規(guī)定的,可以處最高25萬歐元的罰款。
草案試圖在促進人工智能的發(fā)展和利用與歐盟價值觀和基本權利保障之間尋找平衡:首先,其對人工智能采取了較確切的定義并對禁止的和高風險人工智能系統(tǒng)作了詳細的規(guī)定,課予提供者較大的義務,并對包括歐盟機構、機關在內(nèi)的義務主體設定了高額的罰款,可以在較大程度上確保人工智能的發(fā)展和利用不至于嚴重損害歐盟價值觀和基本權利;其二,前述規(guī)定同時也構成了對歐盟和成員國的限制,非有授權其不得干預和限制人工智能的發(fā)展和利用,并要求在適用相關罰則時,應考慮小規(guī)模提供者和初創(chuàng)公司的利益和經(jīng)濟生存能力,這為人工智能的發(fā)展預留了一定空間;同時,為保護重要的公共利益和個人權利,草案對公權力機關,尤其是執(zhí)法機關使用的人工智能系統(tǒng)預留了較多空間,并對訴諸禁止的人工智能系統(tǒng)的例外情形作了規(guī)定,這可以確保公權力職能的實現(xiàn)。
不過,正如批評者所指出,鑒于基本權利侵害風險主要來自于國家,尤其是例外情形和對公權力使用的人工智能系統(tǒng)的差別對待,也使得上述平衡處于危險之中。正因為此,目前歐盟議會尚未能達成一致意見,以至于不少人擔心草案可能流產(chǎn)。
《光明日報》( 2023年03月16日?14版)