總部位于馬里蘭州蓋瑟斯堡的NIST的研究人員測(cè)試了軟件在試驗(yàn)中驗(yàn)證兩個(gè)不同圖像是否顯示相同面部的能力。法國(guó)公司Idemia的軟件已經(jīng)使用在美國(guó),澳大利亞和法國(guó)的警察部隊(duì),以及在美國(guó)的郵輪碼頭邊境機(jī)構(gòu),根據(jù)報(bào)告有線。他們發(fā)現(xiàn),兩位Idemia的最新工具與白人女性,黑人男性或白人男性相比,更容易錯(cuò)誤地匹配黑人女性的面孔。在Idemia的算法為白人女性提供1萬(wàn)分之一的假匹配率(FMR)的情況下,該軟件對(duì)黑人女性的FMR為1,000分之一 - 經(jīng)常是10倍。
作者在報(bào)告中寫道:“白人男性......是通常給出最低FMR的人口統(tǒng)計(jì)數(shù)據(jù)。黑人女性......通常會(huì)提供最高的FMR。”Idemia表示,最新的AI測(cè)試尚未商業(yè)化發(fā)布,這些問(wèn)題將通過(guò)進(jìn)一步開(kāi)發(fā)得到解決。該公司還聲稱,NIST的工程師,他們的測(cè)試被視為面部識(shí)別準(zhǔn)確性監(jiān)控的黃金標(biāo)準(zhǔn),可能會(huì)將他們的軟件推向極限。
總部位于巴黎的Idemia的美國(guó)公安部門負(fù)責(zé)人Donnie Scott告訴Wired,“人們之間存在身體上的差異,算法將以不同的速度改善不同的人。”這不是第一次提出面部識(shí)別軟件中的種族偏見(jiàn)問(wèn)題。
由麻省理工學(xué)院媒體實(shí)驗(yàn)室進(jìn)行的一項(xiàng)名為“性別陰影”的2018年3月研究發(fā)現(xiàn),微軟,IBM和Face ++的流行面部識(shí)別服務(wù)在性別和種族方面的準(zhǔn)確性各不相同。同年6月,微軟宣布更新其面部識(shí)別技術(shù),試圖解決麻省理工學(xué)院的研究結(jié)果。
在2019年1月,麻省理工學(xué)院的研究人員以一種新算法的形式宣布了該問(wèn)題的潛在解決方案,該算法可以掃描面部,但也會(huì)評(píng)估提供給它的訓(xùn)練數(shù)據(jù)。該算法掃描訓(xùn)練數(shù)據(jù)中的偏差并消除它所感知的任何偏差,從而產(chǎn)生更平衡的數(shù)據(jù)集。