18/10/2018
【人工智能太可怕】智能叛變將成真? 原來AI都會有性別歧視
近年AI 被廣泛利用於不同嘅行業,而AI最利害亦最可怕嘅地方,係電腦能夠通過一連串嘅資料收集同分析,再進行自我學習及改良。但喺電腦自我進化嘅過程中,有時會遠超人類想像,有自我嘅取向。
世界級科技巨頭Amazon,利用AI作業已經係家常便飯嘅事,近年Amazon亦利用AI於應徵請人之上。電腦系統會幫應徵者嘅CV評分,透過分析CV上嘅keywords去將應徵者分類,作初步評估後進行配對,篩選出適合嘅應徵者,配上適合嘅工作崗位。最後AI系統亦會收集CV上嘅資料同面試成功率等等,再自我改良評分嘅方法同準則。理論上該AI系統非常完善同有效,但最近Amazon發現,沿用多年嘅AI系統竟然出現嚴重漏洞,發現AI 評分時有性別歧視嘅問題,最終決定停用。
公司調查後發現,AI對CV評分時,明顯地對女性有偏見。當AI知道CV屬男性應徵者,會自動給予較高嘅評分。除此之外,CV上如果出現傾向女性主導嘅字眼,亦可能因此而被AI扣分。究竟問題根源出現喺邊度,而令本身只係一張白紙、無特別取向嘅電腦系統,會有歧視嘅行為?原來根源在於AI自我學習過程之中。
以科技為主嘅Amazon,多年來男性員工遠比女性為多,而應徵者嘅男女比例,亦係男多女少。基於以上兩個原因,男性應徵者嘅成功個案必定比女性多,如是者AI喺學習過程中,不其然認為男性應徵者比女性為好,久而久之,AI 自自然然地給予男性較高嘅分數。雖然Amazon發現問題後亦對AI系統作修改,令系統唔能夠分別出男女,但可能因為AI已經學習「完畢」,「根深蒂固」嘅情況難而改變,所以Amazon最後決定停用該AI系統。
類似事件,Amazon並非唯一,Facebook 亦有試過。而AI出現唔中立嘅情況,好多時都係因為系統未有一個成熟嘅學習機制所引致。雖然電腦並無感情,正常情況下唔會有歧視或偏見,但見工、面試係一個十分人性嘅過程,牽涉著好多人與人之間嘅交流,電腦有時亦難而取代。AI 係人類未來嘅大趨勢,但相信仍需一段較長嘅時間,先有足夠嘅成熟程度去取代人手。不過未來若然真係出現完美嘅AI系統 ,相信可能會比非完美嘅AI更為可怕。
【你點睇】港鐵失倫敦伊利沙伯線專營權,你認為「國際化」遇挫的港鐵應否將重心轉移回本地?► 立即投票