EN
×

打開手機,掃一掃二維碼
即可通過手機訪問網站

×

打開微信,掃一掃二維碼
訂閱我們的微信公衆號

歐盟《人工智能法》解析(第一部分總則、第二部分禁止的人工智能實踐)

2024-04-023674

人工智能是一個快速發展的技術族,能夠爲各行各業和社會活動帶來廣泛的經濟、環境和社會效益,但同時也會存在巨大的社會風險;隨着通用人工智能技術在過去幾年的快速發展,人類已經正式進入了第四次工業革命時代即人工智能時代。2024年3月13日,歐盟議會以523票贊成、46票反對和49票棄權審議通過了《人工智能法》,該法案是人類歷史上第一部關於人工智能的正式立法(還需得到歐盟理事會的正式批準才能生效),該法案全文13篇113條,主要內容包括人工智能系統在歐盟的市場投放、提供服務和加以使用時的統一規則、禁止的人工智能實踐、高風險人工智能系統適用規則、特定人工智能系統提供者和部署者的透明度義務、通用人工智能模型投放市場的統一規則、支持創新的措施(重點是小微企業,包括初創企業)、歐盟人工智能的監管機構、歐盟高風險人工智能系統數據庫、後市場監測、信息共享、市場監督規則、處罰、法案生效時間和適用範圍等;歐盟《人工智能法》作爲人類歷史上第一部關於人工智能的立法,既對我國的人工智能立法具有重要的借鑑和參考價值,也會對我國人工智能企業在歐盟的運行和產品投放產生重要影響;本系列文章對歐盟《人工智能法》的主要規則進行簡要介紹,以其對人工智能企業合規有所裨益。本文主要介紹該法案的第一部分總則和第二部分 禁止的人工智能實踐。



一、歐盟《人工智能法》的立法目的、立法原則及適用範圍、定義


1、《人工智能法》的立法目的:爲改善內部市場運作,促進以人爲本、值得信賴的人工智能應用,同時確保對健康、安全和《憲章》規定的基本權利,包括民主、法治和環境保護,使其免受聯盟內人工智能系統的有害影響,並支持創新。


2、《人工智能法》的立法原則:《人工智能法》對歐盟獨立人工智能高級別專家組2019年制定的《值得信賴的人工智能的倫理準則》中確定的七項不具約束力的倫理原則進行了重申,這些原則貫穿在整部《人工智能法》的各個方面,這七項原則包括:人類的主體和監督;技術穩健性和安全性;隱私和數據治理;透明度;多樣性、非歧視和公平;社會和環境福祉;問責制;這七項原則的具體內容如下:


人類的主體和監督意味着人工智能系統的開發和使用時爲人服務的工具,尊重人的尊嚴和個人自主權,其運行方式可由人類進行適當控制和監督;


技術穩健性和安全性是指開發和使用人工智能系統的方式應能在出現問題是保持穩健,並能抵禦試圖改變人工智能系統使用或性能的行爲;


隱私和數據管理是指人工智能系統的開發和使用符合現有的隱私和數據保護規則,同時處理的數據在質量和完整性方面符合高標準;


透明度是指人工智能系統的開發和使用方式應允許適當的可追溯性和可解釋性,同時讓人類意識到他們與人工智能系統進行了交流或者互動,並適當告知部署者該人工智能系統的能力和侷限性,以及受影響者的權利;


多樣性、非歧視和公平性是指人工智能系統的開發和使用方式應包括不同的參與者,並促進平等獲取、性別平等和文化多樣性;


社會和環境福祉是指以可持續和環保的方式開發和使用人工智能,並使全人類受益,同時監測和評估對個人、社會和民主的長期影響。


3、《人工智能法》的適用範圍


該法案適用於(1)在歐盟境內將人工智能系統投放市場或者提供服務或將通用人工智能模型投放市場的提供者,無論這些提供者是設立於還是位於歐盟境內或第三國;(2)在歐盟內設立場所或者位於歐盟內的人工智能系統部署者;(3)場所位於第三國或者位於第三國的人工智能系統提供者和部署者,其系統生產的產出用於歐盟;(4)人工智能系統的進口者和分銷者;(5)產品製造商以自己的名稱或商標將人工智能系統與其產品一起投放市場或提供服務;(6)未在歐盟境內設立場所的提供者的授權代表;(7)位於歐盟內的受影響者。


4、對《人工智能法》涉及如人工智能系統、人工智能提供者、部署者、經營者、生物數據、生物識別、生物驗證、生物分類系統、 遠程生物識別系統、“即時”遠程生物識別系統、情緒識別系統、真實世界測試計劃、沙盒計劃、人工智能監管沙盒、人工智能素養、真實世界條件下的測試、通用人工智能系統、浮點運算等主要概念進行了定義。


人工智能系統:人工智能系統是一種基於機器的系統,設計爲以不同程度的自主性運行,在部署後可能表現出適應性,並且爲了明確或隱含的目標,從其接受的輸入中推斷出如何聲稱可能影響物理環境的輸出,如預測、內容、建議或決定。這一關於人工智能的定義明確了人工智能系統區別於傳統的軟件系統或編程方法(其僅僅是根據自然人定義的規則自動執行操作的系統)人工智能系統的一個主要特點是具有推理能力,這種推理指獲得輸出的過程,如預測、內容、建議或決策,也指代人工智能系統從輸入/數據中推導出模型和或算法的能力,同時人工智能系統還可以影響物理環境和虛擬環境;人工智能系統在設計時具有不同程度的自主性,這意味着它們的行動在一定程度上獨立於人類的參與,並具有在沒有人類參與的情況下運行的能力;人工智能系統在部署後可能表現出的適應性是指自主學習的能力,允許系統在使用過程中發生變化。


遠程生物識別系統:係指一種人工智能系統,其目的是在沒有自然人主動參與的情況下,通常通過將一個人的生物數據與參考數據庫中的生物識別數據進行比較,遠距離識別自然人的身份。


“即時”遠程生物識別系統:是指一種遠程生物鑑別系統,在該系統重,生物數據的採集、比較、識別都是在沒有明顯延遲的情況下進行的,這不僅包括即時識別,還包括有限的短暫延遲,以避免規避本法案。


情感識別系統:根據自然人的生物數據識別或推斷出其情感或意圖的人工智能系統。


沙盒計劃:參與提供者與主管機關之間商定的文件,其中描述了在沙盒內開展活動的目標、條件、時間框架、方法和要求。

人工智能監管沙盒:是指由主管機關建立一個具體和受控的框架,爲人工智能系統的提供者或潛在提供者提供在監管監督下根據沙盒計劃在有限的時間內開發、培訓、驗證和測試創新人工智能系統的可能性。


二、禁止的人工智能實踐及例外


人工智能除許多有益用途外,該技術也可能遭到濫用,併爲操縱、剝削他人、社會控制、商業欺詐提供了新穎而強大的工具;下列人工智能技術屬於歐盟《人工智能法》明確禁止的人工智能實踐:


1、採用欺騙或操縱技術,扭曲人或一羣人行爲的人工智能實踐。


該人工智能技術可被用來勸說人們做出他們不想從事的行爲,或通過誘導其做出決定來對其加以欺騙,從而顛覆和損害他們的自主、決策和自由選擇;如這類人工智能採用潛意識成分,例如人們無法感知的音頻、視屏、圖像刺激,這些刺激超出了人的感知範圍,或者採用其它操縱或欺騙技術,以人們無法意識到的方式顛覆或損害人的自主、決策或自由選擇,或者即使意識到了,人們仍然被欺騙,或者無法控制或抵制。


例外情況爲對操縱性和剝削性實踐的禁止不應影響醫療方面的合法實踐,如精神疾病的心理治療或身體康復,如果這些實踐是根據適用的法律和醫療標準進行的,例如得到個人或其法定代表人的明確同意;此外,符合適用法律的常見的合法商業行爲,如廣告領域的行爲,本身不應該被視爲構成有害的人工智能操縱行爲。


2、利用特定個人或特定人羣因其年齡、殘疾或特定社會或經濟狀況而具有的任何弱點,扭曲特定人或該羣體的人工智能實踐。


此類人工智能系統被投放市場、提供服務或加以使用,其目的或效果是實質性的扭曲人的行爲,並對該人或其他個人或羣體(如生活在極端貧困中的人、少數民族或宗教少數羣體)造成或者有合理可能性的造成重大傷害,包括可能長期累積的危害,因此應予禁止。即使人工智能的提供者或部署者可能無法合理的預見和緩解這些因素,即無法推定有扭曲行爲的意圖,只要這種傷害是由人工智能操縱或者剝削行爲造成的,都應該予以禁止。


3、禁止基於自然人的生物數據,如個人的面部和指紋,來推斷個人的政治觀點、工會成員身份、宗教或哲學信仰、種族、性生活或性取向的生物分類系統。


這項禁令不包括根據生物數據對按照歐盟或國家法律獲取的生物數據集進行合法標記、過濾或分類,例如根據頭髮顏色或眼睛顏色對圖像進行分類,這可以被用於執法領域。


4、禁止由公共或私人行爲者爲自然人提供社會評分的人工智能系統。


這類人工智能系統可能導致歧視性結果和排斥特定羣體,這類人工智能系統可能會侵犯尊嚴和不受歧視的權利以及平等和公正的價值觀。這類系統根據與自然人在多種場景中的社會行爲有關的多個數據點或者已知、推斷或預測的特定時期的個人或個性特徵,對自然人或其羣體進行評估或分類。此類人工智能系統中獲得的社會評分可能會導致自然人或整個羣體在社會環境中受到有害或不利的待遇,而這些環境與最初生成或收集數據的場景無關,或者導致與其社會行爲的嚴重程度不成比例或不合理的不利待遇。


5、禁止對自然人進行風險評估,以評估其犯罪的風險,禁止根據對自然人的畫像或對其個性特徵和特點的評估來預測實際或潛在刑事犯罪的發生的人工智能系統。


根據無罪推定原則,禁止對自然人進行風險評估,以評估其犯罪的風險,禁止根據對自然人的畫像或對其個性特徵和特點的評估來預測實際或潛在刑事犯罪的發生;這一禁止不涉及並非基於個人畫像或者個性特徵或特點的風險分析,如使用風險分析工具麻醉品或非法貨物本地化的可能性,使用風險分析的人工智能系統根據可疑交易評估企業的金融欺詐風險。


6、禁止無差別抓取面部圖像的人工智能系統。


禁止人工智能系統通過從互聯網或閉路電視錄像中無針對性的獲取面部圖像來創建或擴大面部識別數據庫,因爲這種實踐會增加大規模監控的感覺,並可能導致嚴重侵犯包括隱私權在內的基本權利。


7、禁止情緒推測或識別的人工智能系統。


禁止將旨在用於檢測個人在工作場所和教育相關情況下的情緒狀態的人工智能系統投放市場、提供服務或使用。在不同的文化和不同的情境下,甚至在同一個人身上,情緒的表達都有很大差異,這類系統的主要缺點包括可靠性有限、缺乏特異性和通用性有限,其適用結果可能導致歧視性的結果,並可能侵犯相關人員的權利和自由,可能導致特定自然人或整個自然人羣體受到後海或不利的待遇。


這一禁令不包括用於醫療治療的人工智能系統。


8、禁止爲執法目的而使用人工智能系統在公共場所對自然人進行“即時”遠程生物識別的人工智能系統。


這類人工智能系統會對個人的自由和權利具有特別的侵擾性,因爲這類系統可能會影響大部分人的私生活,使人產生始終受到監視的感覺;用於對自然人進行遠程生物識別的人工智能系統在技術上的不準確性可能會導致存在偏差的結果併產生歧視性的影響,在涉及年齡、民族、種族、性別或殘疾時,尤爲重要;同時,使用這種“即時”運行的系統,其影響具備即時性,進一步檢查或糾正的機會有限。因此,應該禁止爲執法目的而使用這些系統,除非在詳盡列出和嚴格界定的情況下,使用這些系統對實現重大公共利益時嚴格必要的,其重要性壓過了風險。這些情況包括:尋找特定犯罪受害者,包括失蹤人員;自然人的生命或身安全受到特定的威脅或者受到恐怖襲擊;確定本條例附件所列刑事犯罪的犯罪人或嫌疑人的位置或身份,條件是這些刑事犯罪在有關成員國應受到監禁判決或拘留的懲罰,懲罰的期限至少爲四年。


例外爲執法、邊境管制、移民或庇護機關能夠根據歐盟或成員國法律使用信息系統來識別在身份檢查期間拒絕被識別或無法說明或證明其身份的人,而無需根據本條例事先獲得授權。同時,在公共場所爲執法目的使用“即時”遠程生物識別系統,每次使用應得到司法機關或其決定對成員國具有約束力的獨立行政機關的明確和具體授權。同時只有在只有當執法機關完成了基本權利影響評估,並在本條例規定的數據庫中登記了該系統,才能授權在公衆可進入的空間使用即時遠程生物識別系統,同時該遠程生物識別系統智能部署用於確認具體目標個人的身份,並應僅限於在實踐、地理和個人範圍方面絕對必要情況,尤其考慮到有關的威脅、受害者或犯罪者證據或跡象。


作者:付文家
  • 打開微信,掃一掃二維碼
    訂閱我們的微信公衆號

taptap点点体育官方网站 版權所有 | 免責聲明|私隱保護聲明||