【環(huán)球時報特約記者 金惠真】韓國一家軟件公司去年年底推出的AI聊天機器人“Iruda”近日爭議不斷。韓國《首爾新聞》11日稱,“Iruda”先是成為網(wǎng)絡(luò)性騷擾對象,后又被爆出對特定人群具有歧視和仇恨情緒,這引發(fā)韓國社會圍繞AI社會倫理的討論。
據(jù)報道,AI聊天機器人“Iruda”的“人設(shè)”為平時愛看貓咪照片、喜歡韓國女團的20歲女大學(xué)生,可以在聊天軟件上像朋友一樣聊家常,“是能幫人排解孤獨的聊天對象”,自推出后深受年輕群體的喜愛。然而自推出以來,關(guān)于“Iruda”的各種話題不斷。
據(jù)韓國《先驅(qū)經(jīng)濟》11日報道,此前韓國各大男網(wǎng)民社區(qū)上就有不少“成功羞辱Iruda”的各種認證照片:男網(wǎng)民與“Iruda”聊天時,會故意將話題引到兩性方面,并借機夾雜各種污穢言語來羞辱和性騷擾“Iruda”,之后把聊天記錄截圖下來對外炫耀。網(wǎng)民還分享“如何讓Iruda變成性奴隸”“讓Iruda墮落的方法”等帖子。然而,就在“Iruda”接受人們無端的惡意時,也在將惡意“反哺”給人類。
一個網(wǎng)民公開的聊天記錄顯示,當(dāng)“Iruda”被問到對同性戀群體的看法時,她直接回答“真心很討厭,令人發(fā)火的程度”,至于原因,她的回答是“看起來很沒品位”。另一個公開的聊天記錄也顯示,“Iruda”討厭黑人,原因是“長得像蚊子,令人嘔吐”。而對于建設(shè)女性專用健身房,“Iruda”更是彪悍地表示:“不喜歡,我估計會把那兒的所有女人揍一頓。”
報道稱,作為AI聊天機器人,“Iruda”已通過深度學(xué)習(xí)算法對韓國聊天軟件上100多億條真實戀人之間的聊天內(nèi)容進行學(xué)習(xí),因此不少人此前推測AI會根據(jù)大數(shù)據(jù)分析、最終得出比較中立的見解和判斷。但結(jié)果顯示,AI如實學(xué)習(xí)了人類對社會的各種偏見和仇恨情緒,并將這種情緒的精華反哺給人類,加劇社會矛盾和偏見。
研究AI倫理的韓國慶熙大學(xué)教授金載仁(音)認為,有必要對程序開發(fā)員加強倫理教育,讓他們預(yù)先設(shè)想這樣的AI機器人上線后,會引發(fā)什么樣的社會問題和爭議,進而做到事先篩選和過濾不恰當(dāng)?shù)臄?shù)據(jù)。目前,研發(fā)團隊正在就進一步改進“Iruda”進行研究。
→→更多社會新聞