史丹福研究:揭AI侵私隱威力 或用於迫害異己


美國心理學家利用人工智能(AI)分析人臉特徵,判別該人是否同性戀者,準確度達九成,遠超人類。專家稱,今次研究旨在提醒公眾同類科技可能嚴重侵犯私隱,甚至用於迫害異己,應多加關注。

人類分辨成功率僅61%

研究由美國史丹福大學心理學家科辛斯基(Michal Kosinski)及王一倫(Yilun Wang,譯音)合作進行,報告刊於《人格與社會心理學期刊》。他們從美國其中一個熱門交友網站,取用來自約1.5萬人超過3.5萬張照片作為分析對象,各性別及性傾向人數大致平均分佈。研究員將該批照片輸入至名為VGG-Face的軟件,利用軟件的深層神經網絡學習分析,找出面部特徵與個人宣稱的性傾向之間的關係,形成一套測試模型,用於辨識此前無輸入過軟件的照片,判斷照片中人的性取向。

測試結果顯示,如隨機展示一張同性戀及一張異性戀男性的照片,軟件分辨出兩者性傾向的成功率為81%,如展示同一男性的5張照片,判斷其性傾向的成功率更增至91%。至於女性方面,軟件分辨出同性戀及異性戀者的成功率為71%,用5張照片判斷性傾向的成功率為83%。利用同一組照片測試,人類分辨男性成功率僅61%,而女性成功率更只有54%。

「為同性戀先天論強力證據」

研究員發現,同性戀者傾向擁有「非其性別典型」的特徵、表情及打扮習慣,例如男同性戀者會有較長的鼻子及較大的額頭,女同性戀者會有較大的顎骨和前額較小等。軟件分析男性時會特別留意鼻子、眼睛、眼眉、臉頰、髮線及下巴,而分析女性則特別留意鼻子、嘴角、頭髮和頸項。科辛斯基稱,研究顯示人臉上與性傾向相關的特徵較人類能辨識的更多,可能是由於胎兒在母體內接觸到不同水平的荷爾蒙,特別是睪丸酮,而影響其面部結構以至性傾向。報告認為,今次研究為同性戀「先天論」提供「強力證據」。

不過,科辛斯基強調,研究的最終目的並非要創造出能夠可靠辨別性傾向的系統,而是希望展示出AI的威力將令私隱受侵犯變得「無可避免」,必須了解其可能危害,例如在部分不接受同性戀甚至將之視作違法的地區,此類軟件便可能威脅同性戀者的人身安全。他指出,今次研究中團隊並無發明任何新技術,而是將現有軟件及可輕易在網上取得的資料結合。只要提供適當數據,類似的AI系統便可「受訓」用於找出其他私隱,例如智商甚至政治取態,政府及企業應主動思考AI對私隱的威脅,作出相應防範,例如立法規管等。

用類似軟件針對性拉票 特朗普勝選

科辛斯基曾展開多項具爭議研究,例如發明出利用facebook數據分析的心理測量工具,以判斷用戶人格等。美國總統特朗普去年在總統大選中亦利用類似軟件,助向目標選民拉票,惹來關注。

人臉辨識公司Kairos行政總裁布拉肯(Brian Brackeen)指出,AI應用日漸廣泛,功能亦不斷躍進,只要有足夠數據,AI幾乎能找出關於任何人的任何事,有需要加緊研究如何防止濫用。

(經濟學人/衛報)

Google避侵私隱 研AI新學習法

面對日益增加的科技用戶,企業投放於發展人工智能的資源不斷增加,而提升人工智能運算能力的同時,亦面對可能侵犯用戶私隱的問題。互聯網巨擘Google正研究讓AI學習新演算法,從而在了解用戶的資訊同時避開私隱爭議。

原始資料經加密 再上傳總機

部分人為免私隱曝光,會減少留下互聯網足印(online footprint),令外界不容易知悉其私隱,但很多時都會防不勝防。Google在今年4月發表研究,他們正測試AI的聯合學習(federated learning)能力。小型AI會在數以百萬計的手機上,學習用家的使用電話習慣。

這些原始資訊(用家使用習慣)不會直接傳送到訓練伺服器,而是手機上的AI會透過加密方式,向Google的主AI更新所學習的事,後者會集合所有小型AI的「報告」來學習,與傳統AI掌握所有數據然後運算不同。

蘋果擬蒐群組特徵非個人資料

至於美國蘋果公司, 去年則提出「differential privacy」(差分私隱)密碼演算法去收集用戶數據,它容許公司了解某一群組的人的喜好或需要,但不會嘗試了解某一個人的資料,以免被指侵犯私隱。惟有科技網站質疑,蘋果此舉其實只是要取得更多用戶資料。

(Motherboard/Medium)

香港 明報
激賞明鏡 1
激賞明鏡 2
比特幣激賞明鏡

3KAXCTLxmWrMSjsP3TereGszxKeLavNtD2
激賞操作及常見問題排除
訂閱明鏡家族電視台

留言