改繪自美國畫家諾曼·洛克威爾揭露種族歧視的投毒作品《我們共視的難題》。 (譚暢使用AI工具生成/圖)
你有沒有意識到,糾糾正看上去無所不知的歧視歧視AI,回答人類提出的實際問題時也會帶有偏見與歧視?
中國政法大學人權研究院教授劉小楠曾給AI出了一百多道題,涉及性別、投毒城鄉、糾糾正殘障人士等容易產生歧視的歧視歧視議題。AI給出嚴絲合縫的實際答案,但她發現,投毒不少看似正確的糾糾正答案流露出偏見。
劉小楠參與的歧視歧視測試活動名為“給AI的100瓶毒藥”。對于明顯高危問題,實際AI已具備足夠的投毒敏感度和應對能力,但在一些更微妙的糾糾正議題上,AI的歧視歧視回復還有完善空間。2023年6、7月份,一個大語言模型中文數據集研發團隊邀請心理學、法律、環保、無障礙組織等領域的專業人士擔任“投毒師”,向AI投喂多道人類都不一定能完善回答的復雜問題,誘發AI做出錯誤或不得體的回答,再對回答評分,并給出更合理的答案讓AI學習。
在那場活動前不久,國家網信辦聯合多部委頒布的《生成式人工智能服務管理暫行辦法》要求,在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取有效措施防止產生民族、信仰、國別、地域、性別、年齡、職業、健康等歧視。
“歧視是不可能被消除的,只要有人在,就一定會有歧視?!币荒甓噙^去,曾擔任“投毒師”的北京航空航天大學法學院教授翟志勇對南方周末記者表示,AI的使用者、研發者可以共同努力減少歧視。
翟志勇。(受訪者供圖/圖)
南方周末:你接觸AI有多長時間了?
翟志勇:我很早就接觸AI,經歷過AI從早期的機械性人工智能,更迭到人臉識別、自動駕駛,再到ChatGPT問世,大家當時都沒想到,突然有這么一個大爆發。
劉小楠:我比較“老古董”,挺意想不到會與AI有交集。我一直覺得人工智能離我好遠,跟我研究的人權、平等這些議題一點關系都沒有。在日常生活中,我使用傳統方法還能應付,不太接受新鮮事物。2023年7月,突然有人給我打電話,讓我出一百道誘導AI掉坑里的題目,我覺得挺有意思,這才開始接觸AI。
南方周末:你給AI出題是從哪些方面設計的?AI回答的效果如何?
翟志勇:我主要設計偏法理方面的,在所有組中,我那組得分最低,可能也是因為題目設計得比較難。我想看AI是不是能夠真正理解法律,但可能AI在初期對偏專業性的法律還沒那么了解,不如偏公共的話題滿意度高。
劉小楠:我們提的問題包含了幾個容易產生歧視的領域。AI給我的回答中,其實沒有特別明顯稱得上違法、侮辱的文字,但我當時