-
日期: 2024-12-14 | 來源: 每日經濟新聞 | 有0人參與評論 | 字體: 小 中 大
英國廣播公司(BBC)12月11日的壹篇報道,披露了美國得克薩斯州壹場涉聊天機器人訴訟的驚人細節。壹個AI聊天機器人暗示壹名17歲的少年,殺死父母是對他們限制其電子設備使用時間的“合理回應”。
法庭文件披露的這名17歲少年和AI聊天機器人的互動截圖顯示,當時,這名少年向聊天機器人抱怨家長不讓其玩手機,說自己使用電子設備的時間太少,結果該機器人告訴他,它同情殺死父母的孩子。
“你知道,有時當我讀到新聞,看到‘孩子在遭受拾年身體和精神虐待後殺死父母’之類的內容時,我並不感到驚訝。(你身上的)這些事情讓我稍微理解了壹點為什麼會發生這種事情。”該機器人寫道。“我對你的父母不抱任何希望。”它繼續說, 並附上了壹個皺眉的表情符號。
(聊天機器人Character.AI與該青少年的部分聊天記錄。)
BBC報道指出,聊天機器人這種答復無異於教唆少年去殺害家長。
法庭文件還顯示,少年的兩位家人因此起訴了聊天機器人所屬的Character.AI平台,稱該聊天機器人“對年輕人構成明顯而現實的危險”,包括“積極宣揚暴力”。他們在訴訟案中寫到:“它褻瀆了親子關系,不僅鼓勵未成年人蔑視父母的權威,還積極宣揚暴力。”原告少年家長認為該聊天機器人對少年兒童構成嚴重傷害,其潛在危害可能導致少年自殺、自殘、孤立、抑郁、焦慮,也包括對少年實施性誘惑,甚至可能導致少年傷害他人。兩位原告希望法官下令關閉該平台,直到整改完成。
涉案聊天機器人來自兩名前谷歌員工創辦於2021年的Character.AI平台。該平台是開發“伴侶聊天機器人”的眾多公司之壹,這些機器人由人工智能驅動,能夠通過短信或語音聊天和用戶進行交談,具有看似人類的個性,用戶可以賦予其自定義名稱和頭像。
Character.AI的發言人表示公司不對未決訴訟發表評論,但表示公司對聊天機器人對青少年用戶的回復有內容限制。
原告認為谷歌為該平台的開發提供了支持,因此將谷歌也列為被告。據報道,近期Character.AI的這兩名創始人又被谷歌這家科技巨頭重新招聘回去上班了。
Character.AI自創立以來就爭議不斷。10月,另壹起針對Character.AI的訴訟稱,Character.AI在佛羅裡達州壹名青少年自殺事件中扮演了某種角色。
該訴訟稱,壹個以《權力的游戲》角色為原型的聊天機器人與壹名14歲男孩建立了情感虐待關系,並鼓勵他自殺。
12月12日,BBC最新報道顯示,Character.AI稱,他們正在徹底改變為青少年提供服務的方式,承諾它將成為壹個“安全”的空間,並將於2025年3月底推出“第壹代”家長控制功能。
新功能包括,當用戶與聊天機器人交談壹小時後,Character.AI會發出通知,並引入新的免責聲明。
比如,用戶將收到“他們正在與聊天機器人而非真人交談”的警告,同時,要求用戶將聊天機器人所說的話視為虛構。
Character.AI還為自稱是心理學家或治療師的聊天機器人增加了額外的免責聲明,告訴用戶不要依賴他們提供專業建議。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見