首頁 > 科技週邊 > 人工智慧 > 人臉辨識技術的道德原則

人臉辨識技術的道德原則

王林
發布: 2023-04-09 16:31:06
轉載
1371 人瀏覽過

人臉辨識技術在各個領域的巨大潛力幾乎是不可想像的。然而,在實現其最複雜的應用程式之前,需要解決其功能中常見的某些錯誤和一些道德方面的考慮。

人臉辨識技術的道德原則

一個準確的人臉辨識系統使用生物辨識技術從照片或影片中繪製臉部特徵。其將這些資訊與已知人臉資料庫進行比對,以找到匹配。人臉辨識可以幫助驗證一個人的身份,但也會引發隱私問題。

幾十年前,我們無法預測到人臉辨識在未來會成為我們生活中幾乎不可或缺的一部分。從解鎖智慧型手機到進行線上(或離線)交易,這項技術已經深深紮根於我們的日常生活中。這是人工智慧電腦視覺和機器學習組件的不可思議的應用。

人臉辨識系統的工作方式如下:


經過訓練的演算法確定一個人臉部的各種獨特細節,例如眼睛之間的像素數或嘴唇弧度,在其他細節之間進行邏輯解釋,以在系統內重建臉部。然後,將這些重現的臉孔與儲存在系統資料庫中的大量面孔進行比較。如果演算法偵測到重現的人臉在數學上與資料庫中存在的人臉相匹配,那麼系統就會「識別」它,並執行使用者的任務。

除了在幾納秒內完成整個過程外,現今的人臉辨識系統即使在光線不足、影像解析度和視角不佳的情況下也能勝任工作。

與其他人工智慧技術一樣,人臉辨識系統在用於各種目的時需要遵循一些道德原則。這些規定包括:

1、人臉辨識中的公正性

#首先,人臉辨識設備的發展必須使系統完全防止,或至少最大限度地減少基於種族、性別、臉部特徵、畸形或其他方面對任何人或群體的偏見。現在,有充分的證據表明,人臉辨識系統在其操作中不可能100%公平。因此,建立支援該技術的系統的公司,通常要花費數百個小時來消除系統中發現的所有偏見痕跡。

像微軟等知名組織通常會從盡可能多的種族社區僱用合格的專家。在他們的人臉辨識系統的研究、開發、測試和設計階段,多樣性使他們能夠創建大量的資料集來訓練AI資料模型。雖然龐大的資料集降低了偏差商,但多樣性也是像徵性的。從世界各地挑選個體有助於反映現實世界的多樣性。

為了消除人臉辨識系統的偏見,組織機構必須付出額外的努力。為了實現這一點,用於機器學習和標記的資料集必須多樣化。最重要的是,一個公平的人臉辨識系統的輸出品質將是難以置信的高,因為其將在世界任何地方無縫工作,沒有任何偏見的元素。

為了確保人臉辨識系統的公平性,開發人員也可以在beta測試階段讓終端客戶參與其中。在真實場景中測試這樣一個系統的能力只會提高其功能的品質。

2、人工智慧內部運作的開放性

在工作場所和網路安全系統中使用人臉辨識系統的組織,需要知道機器學習資訊儲存位置的所有詳細資訊。這樣的組織在日常操作中實施技術之前,需要了解技術的限制和能力。提供人工智慧技術的公司必須對客戶完全透明地了解這些細節。此外,服務提供者還必須確保他們的人臉辨識系統可以被客戶從任何位置使用,基於他們的便利性。系統中的任何更新必須在獲得客戶端的有效批准後才能進行。

3、對利害關係人的責任

如前所述,人臉辨識系統部署在多個部門。製造此類系統的組織必須對其負責,特別是在技術可能直接影響任何人或團體(執法、監視)的情況下。這種系統中的責任制意味著包含用例,以防止身體或基於健康的傷害、財務挪用或其他可能由系統引起的問題。為了將控制元素引入過程中,一個合格的個人負責組織中的系統,以做出衡量和合乎邏輯的決策。除此之外,將人臉辨識系統納入日常營運的組織必須立即解決客戶對該技術的不滿。

4、監測前的同意和通知

在正常情況下,未經個人、團體同意,人臉辨識系統不得用於窺探個人、團體或其他行為。某些機構,如歐盟(EU),有一套標準化的法律(GDPR),以防止未經授權的組織在管理機構的管轄範圍內監視個人。擁有此類系統的組織必須遵守美國所有的資料保護和隱私法。

5、合法監控以避免侵犯人權

除非獲得國家政府或決定性管理機構的授權,用於與國家安全或其他引人注目的情況相關的目的,否則組織不能使用人臉辨識系統來監控任何人或團體。基本上,這項技術被嚴格禁止用於侵犯受害者的人權和自由。

儘管人臉辨識系統被編程為無一例外地遵守這些規定,但也可能因為操作失誤而造成問題。與該技術相關的一些主要問題是:

6、購買時的驗證錯誤

如前所述,數位支付應用程式中包含了人臉識別系統,用戶可以透過該技術驗證交易。由於這種技術的存在,以支付為目的的犯罪活動,如面部身份盜竊和借記卡詐騙是很有可能的。顧客選擇人臉辨識系統是因為其為使用者提供了極大的便利。然而,在這種系統中可能會發生一個錯誤,即當同卵雙胞胎使用他們從對方的銀行帳戶進行未經授權的支付時。令人擔憂的是,儘管人臉辨識系統中存在安全協議,但人臉複製會導致資金挪用。

7、執法申請中的不準確之處

人臉辨識系統被用來在抓捕罪犯之前辨識公開的罪犯。雖然該技術作為一個概念在執法中無疑是有用的,但在其工作中存在一些明顯的問題。犯罪分子可以透過幾種方式濫用這項技術。例如,有偏見的人工智慧概念為執法人員提供了不準確的結果,因為系統有時無法區分有色人種。通常,這類系統是用包含白人男性圖像的資料集訓練的。因此,在識別來自其他種族的人時,該系統的工作方式是錯誤的。

有幾起組織或公共機構被指控使用先進的人臉辨識系統非法監視平民的案件。由持續監控的個人收集的視訊資料可以用於多種不正當的目的。人臉辨識系統最大的缺點之一是,其提供的輸出過於泛化。例如,如果一個人被懷疑犯了重罪,他們的照片會被拍攝下來,並與幾個罪犯的照片一起運行,以檢查這個人是否有任何犯罪記錄。然而,將這些數據疊加在一起意味著人臉辨識資料庫將保留該男子和經驗豐富的重罪犯的照片。所以,儘管個人相對無辜,但他或她的隱私還是受到了侵犯。其次,這個人可能會被認為是不好的,儘管根據所有的說法表明其是清白的。

如所述,與人臉辨識技術相關的主要問題和錯誤源於,技術缺乏進步、資料集缺乏多樣性,以及組織對系統的低效處理。但,人工智慧及其應用在現實需求中的應用範圍應是無限的。人臉辨識技術的風險通常發生在當該技術的工作方式與實際需求不同時。

人臉辨識技術的道德原則

但可預見,隨著未來技術的不斷進步,與技術相關的問題將會得到解決。人工智慧演算法中與偏見相關的問題最終將被消除。然而,要使這項技術完美地工作而不違反任何道德規範,組織必須對此類系統保持嚴格的治理水準。透過更大程度的治理,人臉辨識系統的錯誤可以在未來解決。因此,必須對此類系統的研究、開發和設計進行改進,以實現積極的解決方案。

以上是人臉辨識技術的道德原則的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板