近日,IBM 公司宣布停止AI提供人臉識別技術(shù)的相關(guān)服務(wù),因為擔(dān)心這項技術(shù)可能被用來促進(jìn)種族和性別歧視。
IBM 首席執(zhí)行官 Arvind Krishna 在一份遞交到美國國會的***中寫道:“IBM 堅決反對將任何技術(shù)用于大規(guī)模監(jiān)視、種族定性、侵犯基本人權(quán)和自由,或任何與我們的價值觀、信任和透明原則不符的目的。”
顯然,IBM 此舉旨在響應(yīng)在美國愈演愈烈的反種族歧視運動“Black Lives Matter”。Arvind 在信中還呼吁國會出臺相關(guān)國家政策,鼓勵采用警員佩戴攝像頭(類似行車記錄儀)和數(shù)據(jù)分析等技術(shù),引入適當(dāng)?shù)膯栘?zé)制度,讓執(zhí)法工作更透明。
目前,美國少數(shù)城市已經(jīng)禁止使用面部識別技術(shù)。去年,舊金山、奧克蘭和圣地亞哥等城市相繼禁止使用面部識別技術(shù),理由是這項技術(shù)存在局限性,在使用方面缺乏標(biāo)準(zhǔn),還助長了對少數(shù)人種的潛在偏見。
人臉識別技術(shù)的發(fā)展
很難相信,這項十年前還常常出現(xiàn)在科幻電影中的技術(shù),如今離我們的生活如此接近。事實上,人們在上世紀(jì) 60 年代就開始了對人臉識別技術(shù)的探索。彼時,人臉識別之父 Bledsoe 開發(fā)了一種系統(tǒng),該系統(tǒng)可用計算機輔助人們手動記錄各種面部特征(包括眼睛,鼻子,發(fā)際線和嘴巴)的坐標(biāo)位置,然后將這些坐標(biāo)數(shù)據(jù)插入數(shù)據(jù)庫中。當(dāng)為系統(tǒng)提供某人的新照片時,它能夠從數(shù)據(jù)庫中檢索與之最相似的圖像。這就是最早的人臉識別系統(tǒng)??上У氖?,受到當(dāng)時的技術(shù)和計算機處理能力的限制,這項技術(shù)并沒有得到大規(guī)模的應(yīng)用。但該系統(tǒng)成功證明了面部識別是可行的生物特征識別技術(shù),邁出了人臉識別技術(shù)重要的第一步。
隨著計算機硬件性能的飛躍,研究者不斷地突破人臉識別系統(tǒng)的上限,但成功率一直無法實現(xiàn)大規(guī)模商用。直到 2014 年前后,大數(shù)據(jù)和深度學(xué)習(xí)的發(fā)展掀起了新時代 AI 熱潮,神經(jīng)網(wǎng)絡(luò)重受矚目,并在圖像分類、手寫體識別、語音識別等應(yīng)用中獲得了遠(yuǎn)超經(jīng)典方法的結(jié)果。來自***的研究團(tuán)隊提出將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到人臉識別上,采用 20 萬訓(xùn)練數(shù)據(jù),在 LFW 上第一次得到超過人類水平的識別精度,這是人臉識別發(fā)展歷史上的一座里程碑。自此之后,人臉識別技術(shù)與機器學(xué)習(xí)綁定,研究者們不斷改進(jìn)機器學(xué)習(xí)算法,同時擴大訓(xùn)練樣本規(guī)模,將 LFW 上的識別精度推到99.5%以上。人臉識別發(fā)展過程中一些經(jīng)典的方法及其在 LFW 上的精度,都有一個基本的趨勢:訓(xùn)練數(shù)據(jù)規(guī)模越來越大,識別精度越來越高。
人臉識別中的偏見
在過去的十年中,得益于人工智能的發(fā)展,人臉識別軟件有了很大的進(jìn)步。同時,由于該技術(shù)通常是由私營公司提供的,缺少相關(guān)法律法規(guī)的限制和政府部門的監(jiān)管。因此,有調(diào)查顯示這項技術(shù)存在種族、性別偏見,這會使該工具在執(zhí)法過程中的可靠性大打折扣,存在侵犯公民合法權(quán)利的風(fēng)險。
2018 年,Joy Buolamwini 和 Timnit Gebru 的研究首次揭示了許多商業(yè)人臉識別系統(tǒng)(包括 IBM 的)有多大的偏見。該研究測試了三款來自不同地區(qū)公司的主流人臉識別軟件,人物面部素材來自 3 個非洲國家和 3 個歐洲國家的志愿者,研究人員把素材按照膚色、性別來進(jìn)行交叉分類。研究結(jié)果顯示:
所有人臉識別軟件對男性的識別成功率都比女性更高,錯誤率相差 8.1%~20.6%
所有人臉識別軟件對淺膚色的人臉識別成功率比深膚色的更高,錯誤率相差 11.8%~19.2%
綜合各分類的人臉識別成功率如下:
綜合對比顯示,各人臉識別軟件對淺膚色男性的人臉識別成功率最高,對深膚色女性的人臉識別成功率最低,正確率差距最高達(dá)到 34.4% 。
也就是說,在這些已經(jīng)大規(guī)模商用的人臉識別軟件應(yīng)用場景下,黑人女性有 20%~30%的概率被識別錯誤,產(chǎn)生一定的誤會。如果是在警用安保等使用場景下,發(fā)生誤會的后果可能會非常嚴(yán)重。
這項研究工作引起了外界對這些人臉識別算法的批評,各大科技公司也為糾正偏差進(jìn)行了持續(xù)的調(diào)查研究。例如,美國國家標(biāo)準(zhǔn)技術(shù)研究院(National Institute of Standards and Technology)于 2019 年12 月進(jìn)行的一項研究發(fā)現(xiàn),“在大多數(shù)當(dāng)前評估的人臉識別算法中,跨人種差異確實存在廣泛的準(zhǔn)確性偏差”。除了對人種、性別的識別偏差外,人臉識別技術(shù)還因其在侵犯隱私方面的問題而受到抨擊。
從今年初開始,另一家美國的人臉識別技術(shù)公司 Clearview AI 受到了嚴(yán)密的審查,因為有關(guān)部門發(fā)現(xiàn)其面部識別工具由超過 30 億張圖像(大部分是通過抓取社交媒體網(wǎng)站收集的)構(gòu)建而成,并且已被很多企業(yè)廣泛使用。自那以來,Clearview 公司已被執(zhí)法部門責(zé)令停業(yè),并且面臨多項侵犯公民隱私的訴訟。今年 1 月份,F(xiàn)acebook 也因其非法使用面部識別技術(shù)遭到檢方起訴,面臨 5.5 億美元的罰款。
人臉識別的未來
這一次藍(lán)色巨人 IBM 宣布放棄人臉識別業(yè)務(wù)的決策,也給野蠻生長的人臉識別產(chǎn)業(yè)踩下了一腳急剎車,把人們的注意力集中到技術(shù)背后的問題上來,比如人權(quán)平等、隱私保護(hù)等。各項研究表明,目前的人臉識別技術(shù)仍存在一定的缺陷。
不同于 5G 等新技術(shù),AI 在誕生之初就被人們視為一把雙刃劍。無論是前段時間飽受爭議的 Deepfake,還是如今處境尷尬的人臉識別,人們對于 AI 技術(shù)帶來的社會、倫理問題的擔(dān)憂從未停止。但還是那句話,“菜刀可以用來做菜,也能用來傷人”,技術(shù)本身是無罪的,一切都取決于使用技術(shù)的人。相信在這項技術(shù)完全成熟以后,人臉識別仍然能夠在一些人類需要的場景下發(fā)光發(fā)熱。
評論