AI馬賽克修復技術惹上了大麻煩,不論族裔顏色,還原出來都是白人

本文來源:量子位

微信id:QbitAI

作者:賈浩楠

還記那個被眾網友玩壞的「最強馬賽克修復AI」PLUSE嗎?

前兩天我們報導了杜克大學發布在CVPR 2020的這項成果,還放出了一大波效果實測。

其中一張奧觀海同志復原圖引起了讀者SilverCasque的注意:

他留言說「還原的全是白人的臉,黑拳警告」。

沒想到這位讀者神預測,現在,PLUSE果然因此惹出了大麻煩。

就連深度學習巨頭LeCun出來為這項技術辯解,也被國外網友和同行炮轟。

PLUSE:不允許你不白

PLUSE一經推出就引起了極大的關注,但是,網友實際使用PLUSE,卻發現了一個很嚴重的問題:PLUSE無法準確還原有色人種圖像。

如果只是還原失敗,弄出一個不人不鬼的東西,最多只是技術問題。

但麻煩的是,PLUSE不僅還原出了完整的人臉,還是一張五官端正漂亮的白人臉。

這在如今高喊「黑命貴」的美國,無疑是一股紮眼的「逆流」。

有網友就拿歐巴馬的低像素照片反復測試,結果無一不是白人男性,更加坐實了PLUSE的罪名。

隨後,知名機器學習博主Robert Osazuwa Ness拿不同有色人種的低像素照片去測試,這其中有他自己、有美國著名國會議員Alexandria-Ocasio Cortez,和華裔女星劉玉玲。

看到模特皮膚不夠白,PLUSE還十分執著地給他安上了一頭金髮…….真的是「不允許你不白」。

Alexandria-Ocasio Cortez是美國有史以來最年輕的國會議員,拉丁裔,也被強行洗成白人。

對於亞裔,PLUSE更不客氣,你甚至看不出一點人物原本真實的特徵。

比如博主Robert Osazuwa Ness自己的妻子:

華裔女星劉玉玲:

總之,在外國網友的測試中,PLUSE無一例外的把少數族裔強行洗白,似乎在有意糾正人們的膚色和五官特征。

網友對此反映自然很激烈,有人認為這是一種帶有種族歧視的、非常危險的技術;

這一種觀點引起了較多共鳴,還有人緊跟著曬出了其他「種族偏見」的AI演算法,比如這位一個將照片變成文藝復興風格的演算法也將別人強行洗白:

有人乾脆給PLUSE起了個新外號:「白人雷達」

但是也有一部分網友認為,演算法本身是沒有所謂「種族歧視」的,問題出在了用來訓練演算法的數據集上。

PLUSE的核心StyleGan是在FFHQ上訓練的,有網友認為儘管它的人種多樣性好於嚴重偏向白人的CELEB-A,但仍然不夠。

有網友截取了一部分FFHQ的人臉數據集:

確實夠白的……但有人同時指出,除了數據集的偏差,還有一種可能是模型的崩潰失效,演算法「偷懶」,僅僅把人像漂白,而不是為不同種族和面部特征建模。

但也有人認為,即使用相同數據集訓練StyleGan也能生成非白人結果,問題還是出在演算法上。

網友對PLUSE的口誅筆伐目前還沒有得到論文原作者的回應。

但另一位機器學習元老卻首先發聲了。

LeCun也中槍,到底冤不冤?

深度學習巨頭LeCun對於網友對PLUSE幾乎一邊倒的抨擊,進行了回應:

他認為,機器學習系統帶有偏見是因為數據帶有偏見。假如在塞內加爾采集的數據上訓練,輸出肯定都是黑人。

隨後他還補充道,相比於這種純學術論文,這個問題應該是工程師更加關注的,實際部署中這種偏見會有嚴重的後果,盯著幾個學者討伐沒有什麼意義。

此話一出,頓時引起了同行的炮轟,外媒報導,一個可問責AI研究者Deborah Raji控訴LeCun:

對LeCun的言論十分震驚,這反應出了行業領軍人物的麻木不仁(lack of awearness)。

不明白像LeCun這樣處在如此關鍵位置的人,為什麼會認為學術研究對工程部署沒有影響。

社會的偏見不可能靠一個「正確」的數據集去解決。

LeCun對這樣的指責頗有些無奈,他對外媒說:

我從來沒說過學術研究無法在應用中確立規範。

我之前也在Facebook建立領導過致力於AI技術公平性的工作組。

其實,稍聰明的讀者都能明白,LeCun的意思是說,論文只是提供了解決問題的思路,實際應用中的問題復雜的多,這才是應該關注的。

借由一篇論文的結果炮轟研究人員,以此標榜自己的政治正確、販賣觀點,這一點是LeCun不願意看到的。

技術本身是無罪的,國外炮轟PLUSE這一事件超出了技術本身,甚至也早就超出了科學倫理的範圍,這大概就是美利堅特色科研吧。

你怎麽看?

參考鏈接

https://www.theverge.com/21298762/face-depixelizer-ai-machine-learning-tool-pulse-stylegan-obama-bias

閱讀原文