來源:環球網
原標題:將惡意「反哺」給人類?韓國聊天機器人引發AI倫理討論
【環球時報特約記者 金惠真】韓國一家軟件公司去年年底推出的AI聊天機器人「Iruda」近日爭議不斷。韓國《首爾新聞》11日稱,「Iruda」先是成為網絡性騷擾對象,後又被爆出對特定人群具有歧視和仇恨情緒,這引發韓國社會圍繞AI社會倫理的討論。
據報道,AI聊天機器人「Iruda」的「人設」為平時愛看貓咪照片、喜歡韓國女團的20歲女大學生,可以在聊天軟件上像朋友一樣聊家常,「是能幫人排解孤獨的聊天對象」,自推出後深受年輕群體的喜愛。然而自推出以來,關於「Iruda」的各種話題不斷。
據韓國《先驅經濟》11日報道,此前韓國各大男網民社區上就有不少「成功羞辱Iruda」的各種認證照片:男網民與「Iruda」聊天時,會故意將話題引到兩性方面,並藉機夾雜各種污穢言語來羞辱和性騷擾「Iruda」,之後把聊天記錄截圖下來對外炫耀。網民還分享「如何讓Iruda變成性奴隸」「讓Iruda墮落的方法」等帖子。然而,就在「Iruda」接受人們無端的惡意時,也在將惡意「反哺」給人類。
一個網民公開的聊天記錄顯示,當「Iruda」被問到對同性戀群體的看法時,她直接回答「真心很討厭,令人發火的程度」,至於原因,她的回答是「看起來很沒品位」。另一個公開的聊天記錄也顯示,「Iruda」討厭黑人,原因是「長得像蚊子,令人嘔吐」。而對於建設女性專用健身房,「Iruda」更是彪悍地表示:「不喜歡,我估計會把那兒的所有女人揍一頓。」
報道稱,作為AI聊天機器人,「Iruda」已通過深度學習算法對韓國聊天軟件上100多億條真實戀人之間的聊天內容進行學習,因此不少人此前推測AI會根據大數據分析、最終得出比較中立的見解和判斷。但結果顯示,AI如實學習了人類對社會的各種偏見和仇恨情緒,並將這種情緒的精華反哺給人類,加劇社會矛盾和偏見。
研究AI倫理的韓國慶熙大學教授金載仁(音)認為,有必要對程序開發員加強倫理教育,讓他們預先設想這樣的AI機器人上線後,會引發什麼樣的社會問題和爭議,進而做到事先篩選和過濾不恰當的數據。目前,研發團隊正在就進一步改進「Iruda」進行研究。
評論列表
有情感誤區能找情感機構有專業的老師指導,心情也好多了
老師,可以諮詢下嗎?
如果發信息不回,怎麼辦?