消除人臉識別系統對不同膚色的誤判,為何比登天還難?

情感導師 7949

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

雷鋒網註:【 圖片來源:IEEE所有者:Matthias Graben/Getty Images 】

Jimmy Gomez畢業於哈佛大學,是加州民主黨成員,也是美國眾議院為數不多的西班牙裔議員之一。但在亞馬遜公司的面部識別系統看來,Gomez更像是一個潛在的罪犯。

亞馬遜公司的面部識別系統名為Rekognition,去年,美國公民自由聯盟(ACLU)對該系統進行了測試。測試結果顯示,該系統錯誤地將美國國會議員Gomez與被捕罪犯的面部照片進行了配對。而且,警方使用的Rekognition系統中,有近40%的錯誤匹配涉及有色人種。

這一發現讓公民自由團體、立法者,甚至一些科技公司的擔憂日益加劇。這種技術已經在iphone和安卓手機上得到了應用,警方、零售商、機場和學校等組織也在慢慢接受這種技術。隨着面部識別技術變得更加主流,它可能會傷害少數群體。

消除人臉識別系統對不同膚色的誤判,為何比登天還難?

研究表明,對於面部識別系統來說,準確地識別女性和深色人種難度更大,這個問題可能會導致災難性的誤報。公民自由律師Jacob Snow說,「這個例子說明,如果將面部識別技術應用到執法領域,可能會帶來有害的後果。」

面部識別技術固然有它的好處。馬里蘭州警方利用該技術確認了大規模槍擊案的嫌疑人;在印度,警方利用該技術在四天內確認了近3000名失蹤兒童的身份;臉書利用該技術為視障人士識別照片中的人物;除此之外,面部識別技術已經成為解鎖智能手機的一種便捷方式。

但這項技術並不完美,也有一些令人尷尬的失誤。谷歌圖片曾把兩個黑人貼上大猩猩的標籤;在中國,一名女性聲稱,她同事的臉能夠解鎖她的iPhone X。當執法機構用這項技術來識別犯罪嫌疑人,或者識別在抗議活動的參與人時,誤判的風險就會加大。「當你把這項技術賣給執法部門,讓他們來識別通緝犯,情況就完全不同了。」Gomez說,「因為,你創造了一種可能性,面部識別技術產生的誤報可能讓執法部門傷及無辜,甚至鬧出人命。」

Gomez議員對ACLU的調查結果並不感到震驚,他指出,科技工作者往往更注重如何讓技術發揮作用,而不是深思熟慮他們的技術會不會影響其他群體。科技公司對Gomez的批評做出了回應,他們改善了用於訓練面部識別系統的數據。但與民權主義人士一樣,科技公司同樣呼籲政府加強監管,保護這項技術不被濫用。喬治敦大學法學院的研究人員估計,美國執法部門的面部識別數據庫存儲了二分之一的成年公民信息。

亞馬遜反駁了ACLU的測試結果,該公司聲稱,ACLU在運行測試時使用了錯誤的設置。亞馬遜AI項目的總經理Matt Wood在一篇博客文章中寫道,「就像烤披薩,錯誤的溫度設定會把披薩烤壞,我們不應該把這個原因歸結在烤箱身上。在幫助執法機構完成工作的方面,機器學習發揮着至關重要的作用。我們應該關注面部識別技術的正確使用,同時也不應該把面部識別全盤否定。」

難以消除的錯誤率

與白人男性相比,面部識別技術在識別其他群體和女性時,可能會遇到更多困難,造成這一情況的原因有很多。

喬治敦大學法學院隱私與技術中心高級助理Clare Garvie說,科技公司用來訓練面部識別系統的數據庫中,白人的圖片可能比其他群體的圖片更多。例如,如果一家公司使用名人數據庫中的照片,這家公司的系統就會傾向於白人,因為其他群體在好萊塢的代表性不足。

雷鋒網註:【 圖片來源:IEEE所有者:Getty Images 】

Garvie說,科技公司的工程師們(主要由白人男性組成)也可能無意中設計了面部識別系統,以便更好地識別某些種族。研究表明,人們更難識別其他種族的面孔,「跨種族偏見」可能會蔓延到AI技術之中。

Garvie還補充道,此外還有一些挑戰,比如深色皮膚缺乏顏色對比,或者女性用化妝品來掩蓋皺紋,或者用不同的方式梳頭。MIT媒體實驗室進行的一項調查表明,與白人男性相比,微軟、IBM等公司製造的面部識別系統更難識別深膚色女性的性別,例如非裔美籍女性。深膚色女性性別被誤認的概率高達35%,而識別淺膚色的人種(白人男性)的錯誤率只有1%。

MIT今年1月發布的另一項研究顯示,在識別深膚色女性的性別方面,亞馬遜的面部識別技術比上述兩家公司更差。

任重道遠的科技公司

亞馬遜公司對MIT的研究結果提出了質疑,女發言人Matt Wood在博客文章中指出,這項研究「具有誤導性」。因為,研究人員使用了「面部分析」來識別人臉的特徵,例如性別或微笑,而不是將人臉與照片或視頻中的圖象進行「面部識別」。

「面部分析和面部識別在基本技術和訓練數據來源方面是完全不同的。」Matt Wood表示,「試圖使用面部分析來判斷面部識別的準確性很不明智,因為面部分析不是為算法而生的。」

科技巨頭們並不是沒有考慮到種族偏見。Microsoft公司表示,自己在去年就將識別女性和深膚色人種的錯誤率降低了20倍;Facebook公司使用面部識別技術來標記用戶,公司的一位發言人表示,該公司確保其使用的數據是「平衡的,並且反映了Facebook用戶的多樣性」;Google聲稱,它發表了關於人工智能的原則,其中包括禁止「製造或加強不公平的偏見」。

今年1月,IBM發布了一組「人臉多樣性」的數據,旨在促進對面部識別的公平性和準確性的研究。這些數據包括100萬張人臉圖片,並附有人臉對稱性、鼻子長度和前額高度等標籤。「對於多樣性的意義,我們有一些主觀和淺顯的見解,」IBM「人臉多樣性」項目的首席科學家John Smith說,「因此,IBM創建這個數據庫的目的是深入研究如何真正測量人臉的多樣性。」該數據庫的照片來自照片網站Flickr。

本月,IBM遭到了一些攝影師、專家和活動人士的批評,因為IBM沒有徵求人們的同意,就將他們的照片用於改善面部識別技術。作為回應,IBM表示將嚴肅對待隱私問題,用戶可以選擇退出數據庫。

亞馬遜表示,目前,自己公司正在使用反映多樣性的培訓數據源,並向客戶傳授面部識別技術的最佳使用方案。今年2月,該公司發布了指導方針,稱立法者在考慮監管時應將其考慮在內。

公司副總裁Michael Punke在一篇博客文章中表示:「各方應該進行開誠布公地對話,以確保該技術應用得當,並不斷進行改進。」

必不可少的政府監管

儘管科技公司努力提高面部識別技術的準確性,但在歧視移民或其他種族方面,人們的擔憂並沒有消失。部分原因是這些群體在日常生活中仍在與偏見作鬥爭。

民權組織和專家認為,執法部門和政府仍然可以利用這項技術來識別政治抗議者或追蹤移民,從而限制他們的自由。Garvie表示,「這是一個足以成為監視工具的精確係統。」

民權組織和科技公司均呼籲政府介入。「如果政府想管理該技術的應用,最有效方法就是管理好政府自己對這項技術的使用。」Microsoft公司總裁Brad Smith在一篇博客文章中寫道,「如果人們對某項技術在社會上的廣泛應用感到擔憂,那麼,政府是唯一一個能夠監管這種廣泛應用的機構。」

ACLU呼籲立法者暫時禁止執法部門使用人臉識別技術。民權組織也給亞馬遜公司寫了一封信,要求其停止向政府提供人臉識別系統。一些立法者和科技公司已經要求NIST(評估人臉識別技術的機構)為人臉識別的種族偏見檢驗提供行業標準和實踐支持。

對於Gomez這樣的議員來說,這項工作才剛剛開始。「我不反對亞馬遜,」他說,「但這項新技術對人們的隱私和自由等方面產生了深刻影響,它引發了很多問題。」雷鋒網註:原文作者為QUEENIE WONG,本文編譯自IEEE

【封面圖片來源:網站名IEEE,所有者:Matthias Graben/Getty Images】

評論列表

頭像
2024-06-10 10:06:16

有時侯自己陷進去出不了只能找專業的人士幫忙,我覺得挺不錯的,推薦!

頭像
2024-03-12 18:03:44

老師,可以諮詢下嗎?

頭像
2024-01-20 05:01:26

被拉黑了,還有希望麼?

頭像
2023-11-09 12:11:39

可以幫助複合嗎?

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

發表評論 (已有4條評論)