Facebook搞種族歧視?其AI將黑人標(biāo)記為靈長(zhǎng)類動(dòng)物
Facebook的人工智能在一段有關(guān)黑人的視頻上誤貼“靈長(zhǎng)類”標(biāo)簽。
據(jù)《紐約時(shí)報(bào)》報(bào)道,F(xiàn)acebook用戶稱其最近觀看了一個(gè)來(lái)自英國(guó)小報(bào)的黑人視頻,然而卻收到了一個(gè)自動(dòng)提示,詢問(wèn)他們是否愿意繼續(xù)觀看關(guān)于靈長(zhǎng)類動(dòng)物的視頻。該公司立即調(diào)查并禁用推送該消息的AI功能。
這段視頻拍攝于2020年6月27日,來(lái)源于《每日郵報(bào)》(The Daily Mail),內(nèi)容涉及黑人男子與白人平民以及警察發(fā)生爭(zhēng)執(zhí)的片段,與靈長(zhǎng)類動(dòng)物沒(méi)有任何關(guān)系。
曾在Facebook擔(dān)任內(nèi)容設(shè)計(jì)經(jīng)理的Darci Groves說(shuō),一個(gè)朋友最近給她發(fā)了一張自動(dòng)提醒的截圖。然后,她把這篇文章發(fā)布到一個(gè)Facebook員工的產(chǎn)品反饋論壇上。
作為回應(yīng),該公司的視頻服務(wù)Facebook Watch的一名產(chǎn)品經(jīng)理稱這是“不可接受的”。周五,F(xiàn)acebook為其所謂的“不可接受的錯(cuò)誤”道歉,并表示正在調(diào)查推薦功能,以“防類似事件再次發(fā)生”。
“正如我們所說(shuō),雖然我們對(duì)人工智能進(jìn)行了改進(jìn),但我們知道它并不完美,我們還需要一直改善。我們向任何看到這些無(wú)禮推薦消息的人道歉。”
這一事件只是人工智能工具顯示性別或種族偏見(jiàn)的最新例子。谷歌、亞馬遜和其他科技公司多年來(lái)一直因其人工智能系統(tǒng)存在偏見(jiàn)而受到審查,尤其是種族問(wèn)題。研究表明,面部識(shí)別技術(shù)對(duì)有色人種有偏見(jiàn),識(shí)別有色人種更困難,導(dǎo)致黑人在使用電腦的過(guò)程中受到歧視甚至因電腦錯(cuò)誤被捕。
2015年,一名黑人軟件開(kāi)發(fā)人員在Twitter上說(shuō),谷歌的照片服務(wù)(Google Photos)把他和一個(gè)黑人朋友的照片打上了“大猩猩”的標(biāo)簽,這讓谷歌感到非常尷尬。谷歌宣稱自己“感到震驚和由衷的歉意”。一名相關(guān)的工程師表示,谷歌正在“研究更長(zhǎng)期的解決方案”。
兩年多之后,谷歌給出的其中一項(xiàng)修復(fù)措施就是將大猩猩和其他靈長(zhǎng)類動(dòng)物的標(biāo)簽從該服務(wù)的詞庫(kù)中刪除。這一尷尬的變通方案表明,谷歌和其他科技公司在推進(jìn)圖像識(shí)別技術(shù)方面仍舊面臨著諸多困難,盡管這些公司希望能夠在自動(dòng)駕駛汽車(chē)、個(gè)人助理和其他產(chǎn)品上使用這些技術(shù)。
這件事爆出后,Google 承認(rèn),在圖片識(shí)別標(biāo)簽中,他們確實(shí)刪掉了“大猩猩”,給出的解釋是:“圖片標(biāo)簽技術(shù)仍處于早期,很不幸,它離完美還差得遠(yuǎn)!
去年,臉書(shū)表示正在研究其使用人工智能(包括Instagram)的算法是否存在種族偏見(jiàn)。為什么人臉識(shí)別系統(tǒng)總是認(rèn)錯(cuò)黑人?技術(shù)不懂什么是種族偏見(jiàn),人臉識(shí)別卻一再翻車(chē)。
2018 年,美國(guó)《紐約時(shí)報(bào)》發(fā)表過(guò)一篇文章,引用美國(guó)麻省理工學(xué)院的最新研究論文,證實(shí)在不同種族面前,人臉識(shí)別的準(zhǔn)確率存在巨大差異。紐約時(shí)報(bào)刊文研究員創(chuàng)建了一個(gè)包含 1270 張面孔的數(shù)據(jù)集,包括以深膚色為主的 3 個(gè)非洲國(guó)家,以及淺膚色的 3 個(gè)北歐國(guó)家,并找來(lái)三款主流的人臉識(shí)別系統(tǒng)進(jìn)行測(cè)試。數(shù)據(jù)集中的一部分結(jié)果顯示:白人的識(shí)別錯(cuò)誤率最低,僅為 1%,膚色越暗,錯(cuò)誤率越高。這其中,又以黑人女性的錯(cuò)誤率最高,達(dá)到 35%。
現(xiàn)實(shí)中,深膚色人的面部特性確實(shí)比較難找,尤其在暗光環(huán)境下,光是檢測(cè)到臉就很難了,更別提捕捉面部特征,這對(duì)于算法確實(shí)是一大挑戰(zhàn)。在樣本數(shù)據(jù)不足的情況下,人臉識(shí)別算法一般的做法,是根據(jù)特定的面部特征,比如眼距、膚色等,開(kāi)啟預(yù)測(cè)模式,但算法預(yù)測(cè)所依賴的面部特征,本身就不準(zhǔn)確,勢(shì)必會(huì)導(dǎo)致識(shí)別失誤,比如把深色皮膚的女性識(shí)別成男性,或者把良民識(shí)別成罪犯。
其實(shí),AI其實(shí)并不存在種族偏見(jiàn),如果深膚色人臉的樣本足夠多,AI算法獲得足夠多的數(shù)據(jù)來(lái)訓(xùn)練,那么深膚色人種的人臉識(shí)別問(wèn)題自然就迎刃而解了,說(shuō)到底還是AI在深膚色人種之間應(yīng)用較少,缺乏足夠多的數(shù)據(jù)訓(xùn)練,歸根結(jié)底,有偏見(jiàn)的一直是人。
維科杯·OFweek(第六屆)2021物聯(lián)網(wǎng)行業(yè)年度評(píng)選:https://www.ofweek.com/award/2021/AIoT/iot/
維科杯·OFweek(第六屆)2021人工智能行業(yè)年度評(píng)選:https://www.ofweek.com/award/2021/AIoT/ai/

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
圖片新聞
-
馬云重返一線督戰(zhàn),阿里重啟創(chuàng)始人模式
-
機(jī)器人奧運(yùn)會(huì)戰(zhàn)報(bào):宇樹(shù)機(jī)器人摘下首金,天工Ultra搶走首位“百米飛人”
-
存儲(chǔ)圈掐架!江波龍起訴佰維,索賠121萬(wàn)
-
長(zhǎng)安汽車(chē)母公司突然更名:從“中國(guó)長(zhǎng)安”到“辰致科技”
-
豆包前負(fù)責(zé)人喬木出軌BP后續(xù):均被辭退
-
字節(jié)AI Lab負(fù)責(zé)人李航卸任后返聘,Seed進(jìn)入調(diào)整期
-
員工持股爆雷?廣汽埃安緊急回應(yīng)
-
中國(guó)“智造”背后的「關(guān)鍵力量」
最新活動(dòng)更多
-
10月23日火熱報(bào)名中>> 2025是德科技創(chuàng)新技術(shù)峰會(huì)
-
10月23日立即報(bào)名>> Works With 開(kāi)發(fā)者大會(huì)深圳站
-
11月7日立即參評(píng)>> 【評(píng)選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評(píng)選
-
即日-11.25立即下載>>> 費(fèi)斯托白皮書(shū)《柔性:汽車(chē)生產(chǎn)未來(lái)的關(guān)鍵》
-
11月27日立即報(bào)名>> 【工程師系列】汽車(chē)電子技術(shù)在線大會(huì)
-
11月28日立即下載>> 【白皮書(shū)】精準(zhǔn)洞察 無(wú)線掌控——283FC智能自檢萬(wàn)用表
推薦專題
-
8 每日AI全球觀察
- 1 特斯拉工人被故障機(jī)器人打成重傷,索賠3.6億
- 2 【行業(yè)深度研究】退居幕后四年后,張一鳴終于把算法公司變成AI公司?
- 3 AI 時(shí)代,阿里云想當(dāng)“安卓” ,那誰(shuí)是“蘋(píng)果”?
- 4 拐點(diǎn)已至!匯川領(lǐng)跑工控、埃斯頓份額第一、新時(shí)達(dá)海爾賦能扭虧為盈
- 5 硬剛英偉達(dá)!華為發(fā)布全球最強(qiáng)算力超節(jié)點(diǎn)和集群
- 6 隱退4年后,張一鳴久違現(xiàn)身!互聯(lián)網(wǎng)大佬正集體殺回
- 7 L3自動(dòng)駕駛延期,逼出車(chē)企技術(shù)自我淘汰
- 8 谷歌“香蕉”爆火啟示:國(guó)產(chǎn)垂類AI的危機(jī)還是轉(zhuǎn)機(jī)?
- 9 00后華裔女生靠?jī)刹緼I電影狂賺7.8億人民幣,AI正式進(jìn)軍好萊塢
- 10 機(jī)器人9月大事件|3家國(guó)產(chǎn)機(jī)器人沖刺IPO,行業(yè)交付與融資再創(chuàng)新高!