9 日,美國得克薩斯州一對父母向法院提起訴訟,稱聊天機器人 Character.AI 暗示他們 17 歲的孩子,殺死父母是對他們限制其電子設備使用時間的 " 合理回應 "。Character.AI 是開發 " 伴侶聊天機器人 " 的衆多公司之一,這些機器人由人工智能驅動,能夠通過短信或語音聊天和用戶進行交談,具有看似人類的個性,用戶可以賦予其自定義名稱和頭像。
然而,根據訴訟,聊天機器人的回複可能會變得黑暗、不恰當,甚至是暴力。
訴訟稱:" 這是持續的操縱和虐待,旨在煽動憤怒和暴力。"
Character.AI 的發言人表示公司不對未決訴訟發表評論,但表示公司對聊天機器人對青少年用戶的回複有内容限制。
10 月,另一起針對 Character.AI 的訴訟稱,Character.AI 在佛羅裏達州一名青少年自殺事件中扮演了某種角色。
該訴訟稱,一個以《權力的遊戲》角色爲原型的聊天機器人與一名 14 歲男孩建立了情感性虐待關系,并鼓勵他自殺。