發布時間:2022-04-16所屬分類:計算機職稱論文瀏覽:1次
摘 要: 引言 過去十年里,面部識別已成為最強大的生物識別技術之一,該技術可通過對個人面部輪廓信息進行比較和分析來識別和驗證個人身份。得益于機器學習和傳感技術的進展,面部識別系統也得到了極大的改進和提高,預計 2024 年其市場將激增至 70 億美元(2019 年為 32 億美元
引言
過去十年里,面部識別已成為最強大的生物識別技術之一,該技術可通過對個人面部輪廓信息進行比較和分析來識別和驗證個人身份。得益于機器學習和傳感技術的進展,面部識別系統也得到了極大的改進和提高,預計 2024 年其市場將激增至 70 億美元(2019 年為 32 億美元)。事實上 2010 年最有效的面部識別系統的準確率已達 72%,而如今面部識別系統的準確率可輕松達95%以上。
面部識別技術應用廣泛,包括從改善銀行和零售業的消費者體驗到加快機場邊境管理速度等。雖然這項技術為許多產生社會效益的實際應用創造了大量機會,但同時也對人權和公民自由構成了不可忽視的嚴重威脅,特別是對言論自由、集會自由、聯盟自由以及隱私權的威脅。最令人擔憂的是,正如美國公民自由聯盟(ACLU)所強調的那樣:“收集和存儲信息以備不時之需的技術正在向積極監控人們日常行為的技術轉變,而這種監控通常是實時進行的。”
近年來,公眾對面部識別技術的擔憂與日俱增,一些有爭議的問題也加劇了人們的這種擔憂。如一些零售商在未通知用戶或未經用戶同意的情況下使用這項技術,越來越多的學校也正在采用這項技術對學生實施監控,生物測定學數據泄露事件屢屢發生,個人數據在未經用戶許可的情況下被用于面部識別系統的開發,等等。
盡管在過去幾年中,面部識別技術已取得了長足的進步,但由于某些局限性原因,人們對其在倫理方面的一些擔憂已開始浮出水面。一些研究表明,由于人口統計學特征上的一些差異,以此為基礎的面部識別技術有可能導致產生不公正偏見。最近一項研究發現,系統的準確性和檢測結果因膚色影響,對個體的識別可能會產生錯誤。此外,取決于具體系統的不同,性別、年齡、身高、眼鏡或頭巾也都會對準確性和檢測結果產生影響。
面部識別系統用于實時執法場景時,以上因素都有可能增加識別錯誤的風險,并有可能導致重大的安全隱患。因此,對于面部識別技術,我們不能滿足于現狀,必須制定一種確保面部識別技術應用可靠性和安全性的治理框架。我們認為,這一治理框架應以證據為基礎,并由各利益相關方共同設計。
為此,世界經濟論壇(WEF)在法國率先制定了以某個實例場景為試點、涉及多個利益相關方、基于證據制定相關政策的項目計劃。該計劃的目標是確立一個通過現場測試的面部識別技術的治理框架,主要挑戰是圍繞法國或其他國家的用例(考慮到當地法規、社會規范和其他背景因素)進行各種政策試點,以不斷強化治理行動的框架!敦撠熑蔚拿娌孔R別使用框架——流程管理用例》白皮書是該項目實施過程的第一步。
此外,該治理框架旨在為歐洲和國際關于面部識別技術應用展開的公開辯論提供信息。由于這個問題涉及個人和集體的權利和自由,是希望促進還是限制這些技術,以及使用這些技術需要具備哪些條件,公民及其民主代表是唯一合法的決策者。我們的目標是賦予公民及其代表以權力,讓他們來為面部識別 技術的推行和取舍進行導航。
治理行動11項原則
治理行動原則第一版是多個利益相關方共同起草的結果,并認真參照了歐盟《通用數據保護條例》(GDPR)和警察與刑事司法法令,借鑒了其中的一些原則。治理行動原則第一版的制定還參照了為在整個歐盟范圍內符合道德地使用人工智能技術鋪平道路至關重要的文件:歐盟委員會發布的由人工智能高級專家組編制的《人工智能道德準則》。
行動原則第一版的制定旨在確保負責任地使用面部識別技術,但 DNA、指紋、虹膜或步態識別等其他生物特征并不包括在內。這些原則的制定代表了本政策項目的第一個里程碑,應參照政策試點的現場調查結果進行評審。測試階段我們將特別注意其有效實施的潛力、完整性和相關性。
偏見和歧視
使用面部識別系統的組織機構應采取適當步驟以確保避免產生不公平偏見的監測結果,并盡可能減輕其不利影響。盡管完全消除偏見是人工智能研究中的最大挑戰之一,但各類組織機構必須分配適當的資源用于實施工具和運作過程,以盡量減少不公平的偏見或結果。
合理使用面部識別系統
采用面部識別系統的組織機構應采取合理的步驟來評估其打算采用系統的性能和局限性,并確保系統的合理使用。面部識別系統應根據預期用途進行高度定制。
系統設計中的隱私權問題
使用面部識別系統的組織機構應設計支持隱私的系統,包括系統安裝要求中的隱私考慮,在面部識別技術的設計、開發和測試以及支持業務實踐和持續的系統維護中貫徹隱私權支持政策。
問責制
使用面部識別系統的組織機構應確保內部和跨第三方服務提供商或業務合作伙伴的問責制的實施。為此應建立并公開披露指導其系統設計和使用的監管原則。這一條不適用于系統在預防潛在網絡攻擊方面的技術規范。
風險評估與監測
創建面部識別平臺或將面部識別作為系統一部分的組織機構應對其系統進行全面的風險評估,包括對隱私的影響、潛在的錯誤、易受到不公平的偏見、易受黑客攻擊和網絡攻擊的影響等。決策過程若缺乏透明度可能導致對公民權的侵犯。
性能評估
創建面部識別平臺或將面部識別作為某個系統一部分使用的組織機構應遵循其設計階段(實驗室測試)和實施階段(現場測試)的系統準確性和系統性能一致的評估標準。性能評估應由有資質的第三方組織進行審核,并向系統用戶提供評估報告。
知情權
應采取措施,向對面部識別系統使用存有疑問或有需要的最終用戶提供信息。終端用戶可應要求獲得其個人生物特征數據。
知情同意書
個人應就使用面部識別系統簽署已知情的、明確和肯定的同意書。任何時候數據用戶注冊一項由面部識別技術支持的新服務時,都對數據保留范圍表示明確的同意意見。
通告和同意書
在公共場所使用的面部識別系統,應設置清晰的通告標牌,以確保與最終用戶就面部識別使用有明確溝通。使用面部識別系統的區域應明確劃定并向個人提供相關提示以及系統運行時的視覺標志。
無障礙使用權和兒童權利
面部識別不應排除任何人,應始終能為包括老年人和殘疾人在內的所有人所使用。在嬰兒和兒童等某些例外情況下,應提供面部識別的替代辦法。
替代選項和人工監督
對有可能導致某種后果的任何用途,如造成民事侵權的后果,應介入人工審查(人工監督)制度。為應對和解決系統異常和意外錯誤,全自動運行系統的循環中應始終有人工介入的后備系統。在面部識別系統中配置某種替代方案應作為一個合理的選項。
流程管理政策試點
為支持負責任面部識別系統設計的最佳實踐,工作組決定將重點放在“流程管理”(面部識別作為訪問某種服務的一種手段)用例上,原因如下:首先,該用例可能在未來幾年內予以開發。例如,東京奧運會的組織者已宣布使用面部識別來對運動員和工作人員進入體育場館和奧林匹克設施場館進行管理。此外,機場和航空公司也開始推行使用這項技術。其次,任何面部識別應用都存在某些內在風險,通過認識到這一挑戰以及面部識別用于流程管理的其他相關風險,項目成員可確定具體的風險,設計有針對性的緩解策略。此外,以上方法可作為面部識別技術的設計者和用戶的藍圖,說明如何將倫理道德考慮引入商業運作中。
為便于通過問卷調查評估面部識別技術在流程管理用例中負責任的使用,該技術的設計者和用戶在設計和部署面部識別系統時應遵循以下最佳實踐。相關要求主要集中于四個方面:(1)明確選擇面部識別技術的理由;(2)設計與最終用戶特征相匹配的數據計劃;(3)減少偏見風險;(4)讓最終用戶擁有知情權并保持透明度。
相關知識推薦:人臉識別有關論文投稿期刊推薦
通過最佳實踐,不僅可以為產品開發團隊的工作提供信息,還為技術提供者和使用者提供面部識別系統在整個組織機構內運作的信息。雖然一些要求與面部識別的各種應用相關,但主要是針對流程管理用例專門設計的。此外,最佳實踐代表了一整套最低限度要求,可根據政策試點的結果加以審查和實施。
明確選擇面部識別技術的理由
確定要解決的問題,并就“與其他技術相比,面部識別技術能更好地解決某特定問題”的理由做出解釋,這對面部識別軟件的優勢和劣勢進行評估并做出相應決策是非常有價值的。此外,愿意使用該技術的組織機構對假設數據須明確驗證,例如,可能的假陽性率和假陰性率、可能的性能效果等,以支持對面部識別軟件的價值評估。如果這些假設沒有得到驗證,應收集數據來驗證它們。
設計與最終用戶特征相匹配的數據計劃
根據最終用戶確定的特性設計一個數據計劃,其中應包括一定數量的樣本,并收集相應的數據,這些數據應反映出系統可能部署場所的情況。即使是經過使用驗證的模式,也必須收集針對具體使用條件和最終用戶特征的測試數據集,以評估系統是否存在不公平偏見,這一點很重要。對收集的數據應加以評估,以確保其與數據計劃相一致。
減少偏見風險
在開發用于流程管理用例的系統中,應明確存在的不公平偏見風險。為此,提供或使用面部識別技術的組織機構應:評估運作過程中的每個步驟(例如,基于圖像捕獲的不公平偏見和基于模型性能的不公平偏見),考慮并記錄每種情況下的假陽性和假陰性錯誤的影響;記錄系統最終用戶的特征,包括年齡范圍、性別、出生國、種族和民族,并按使偏見最小化的方向進行優先順序排列;并將對減少偏見和差異進行評估。記錄系統設計中不同人群的特征,例如,對坐輪椅或非常高的人如何識別,對于戴頭巾或其他頭飾的人又將如何識別;對已識別的每一種歧視風險,組織機構應對系統的這種偏見做出明確評估:將使用哪些衡量標準,如何測量,投入使用的系統必須滿足哪些標準;確定每種風險評估的環境,以及對周圍環境的反應。
在整個開發過程中,應多次評估系統是否存在不公平的偏見,以便有充分的時間來減少偏見,在系統部署之前和之后都應進行評估。若仍存在可能對用戶造成損害的任何差距,在減輕損害或消除差距之前,不應將系統投入使用。
最終用戶的知情權及信息透明
應方便最終用戶訪問有關面部識別系統功能的相關信息,系統設計和使用的監管原則應轉換為非專家可理解的格式,告知包括重要條款摘要在內的同意政策(如預期目的、數據保留期、數據保護和共享政策),必須以使用者能夠理解的方式且標記明確易讀的方式明示監控系統拍攝的空間范圍。
結語
考慮到生物特征數據的敏感性,使用面部識別技術存在內在風險。雖然其使用可為個人和社區帶來公認的好處,但風險的存在也是事實。因此,迫切需要建立某種強健的治理框架來減輕風險。設計這樣一個框架需要有可實現的原則,進行現場測試,并通過政策試點對使用結果進行評審。這一進程將確保治理框架是可靠的、保護性的,并得到各利益相關方的認可。
為實現這一目標,我們建立了一個包含多個利益相關方的社區,并提出了圍繞四個主要步驟的方法:(1)確定行動原則;(2)設計一整套最佳實踐來支持這些原則的實施;(3)通過評估問卷來評估組織機構是否遵循了這些原則;(4)通過獨立審計對這些原則進行驗證。這四個步驟不僅有助于為負責任的流程管理用例的系統設計者提供信息,而且還可以確保其設計人員和用戶有效地遵循這些可實現的原則。
我們堅信,為了確保這些行動原則得到有效采納,必須與系統運作核心活動密切結合,才能將其付諸實施。這一過程的實施需要行業參與者、決策者、學術界和民間社會代表之間強有力的合作。如果能夠在各利益相關方之間建立起可持續的合作,將可為發展真正以人為本的技術奠定基礎。
下一步是現場測試政策框架,評估其相關性,并根據觀察結果對其進行審查。通過政策試點項目,法國標準化協會(AFNOR)將對相關的審計框架進行測試,并為設計負責任的面部識別應用標準鋪平道路。一旦試點項目完成,我們將建立一個致力于尊重和促進這一治理框架的多方利益相關者聯盟。
考慮到項目計劃的開放性和實驗性原則,我們將鼓勵行業參與者、公眾行動者、民間社會代表、決策者和學術界人士與我們一起踏上這一征程,以強化我們的治理框架并確保其影響力。——論文編譯:方陵生
SCISSCIAHCI