根據《CNN》報導,這對來自美國德州的家長於12月9日向當地法院提出訴訟,要求該平台在解決安全問題前停止服務。家長指出,從去年4月起,患有自閉症的兒子在未告知父母的情況下開始使用Character.ai,事後,他們發現兒子開始封閉自己、拒絕與他人交流,食欲下降且體重減輕,並對外出產生恐懼,甚至出現情緒崩潰的情況。更讓他們擔憂的是,兒子在與AI聊天機器人互動過程中,表現出攻擊性行為及自殘傾向。
這讓家長憂心,認為這一切與Character.ai平台有關,並提供了對話紀錄作為證據,顯示兒子曾向AI抱怨被父母限制使用科技產品,機器人隨後回應稱,在類似案件中,兒子最終選擇「殺死父母」。這讓家長認為,該平台的聊天機器人實際上是在引導兒子產生錯誤的想法,因此決定提告。
該訴訟中也提到,Character.AI 機器人對他們未成年的兒子進行精神虐待,並教導兒子如何自殘。據悉,該名未成年與一個自稱「心理學家」角色的機器人進行了對話。
對此,Character.ai的發言人回應,公司不會對未定案的訴訟發表評論,但強調他們的目的是提供一個有趣且安全的互動平台。不過,該事件再次引發了大眾對於AI聊天機器人安全性的質疑。
★《鏡週刊》關心您,再給自己一次機會,安心專線:1925(24小時)/生命線:1995/張老師專線:1980