不只性別、種族歧視,AI可能還會「嫌貧愛富」

情感導師 5715

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

長期以來,對AI偏見的擔憂一直是業內重點討論的話題。以前這方面討論多集中在性別歧視、種族歧視問題上,如今又有研究發現,包括谷歌、微軟和亞馬遜等科技巨頭推廣的物體識別算法,都存在對來自低收入國家的物品時識別表現更差的現象。

這是Facebook AI實驗室進行的一項新研究的結果,該研究表明,AI偏見不僅會重現國家內部的不平等,還會重現國家之間的不平等。

在這項研究中,研究人員測試了5種流行的現成物品識別算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜reko和IBM Watson——以了解每個程序識別全球數據集中各種家庭物品的能力。

數據集包括117個類別(從鞋子到肥皂再到沙發),並以不同的家庭收入和地理位置(例如月收入27美元的布隆迪家庭和月收入1090美元的烏克蘭家庭)作了區分。

不只性別、種族歧視,AI可能還會「嫌貧愛富」

研究人員發現,與月收入超過3500美元的家庭相比,在識別月收入50美元的家庭物品時,算法出錯的幾率一下子高出了10%左右。而在準確性上的絕對差異甚至更大:與索馬里和布基納法索家庭的物品相比,這些算法在識別來自美國的物品方面要高出15-20%。

研究作者表示,他們在「一系列商用雲服務的圖像識別算法中得出了一致結論」。

這種偏見有很多潛在原因,最常見的解釋是,用於創建算法的培訓數據往往反映了相關工程師的生活和背景。而由於這些人通常是來自高收入國家的白人男性,他們教授的課程所要識別的世界也是如此。

研究作者分析,有幾個可能的原因導致了這種現象:第一,用於創建系統的訓練數據受地理限制,第二,算法本身無法識別文化差異。他表示,視覺算法的訓練數據主要來自歐洲和北美,而「在人口眾多的地理區域,特別是非洲、印度、中國和東南亞,對視覺場景的採樣嚴重不足」。

人工智能偏見最著名的例子之一是面部識別算法,這種算法在識別女性面孔時,通常表現得更差,尤其是有色人種女性。這種偏見會滲透到各種各樣的系統中,從計算假釋的算法,到即將到來的面試前評估簡歷的算法。

還有一種情況是,大多數圖像數據集使用英語名詞作標記,並收集相應的數據。然而,某樣存在於某個地區的東西,在別的地方可能並不存在,也有可能出現同樣名字對應在不同國家對應不同事物的情況。比如說「dish soap」這個英語單詞,直譯為洗碗皂,在一些國家指的是一種肥皂,但在某一些國家,「洗碗皂」卻是一種液體容器。

這項研究結果說明什麼?首先,這意味着任何使用這些算法創建的系統對於低收入和非西方國家的人來說都會表現得更差。由於美國科技公司在AI領域處於世界領先地位,這可能會影響到從照片存儲服務和圖像搜索功能,到動安全攝像頭和自動駕駛汽車等系統的方方面面。

這還可能只是冰山一角。行業對視覺算法的偏見已經有了警惕,但創建這些程序的渠道同樣也在為整個行業提供算法,而一些不受重視的算法可能永遠不會受到懷疑。

總而言之,硅谷經常把自己的產品——尤其是近年來的AI產品——宣傳為人人平等、人人可得。但類似的研究表明,科技公司繼續按照自己的形象評估、定義和塑造世界。

評論列表

頭像
2024-06-25 15:06:59

我對比過很多家,你們家的服務真的很不錯,很慶幸選擇你們幫忙挽回!

頭像
2024-03-03 12:03:25

可以幫助複合嗎?

頭像
2023-12-21 16:12:49

如果發信息不回,怎麼辦?

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

發表評論 (已有3條評論)