兩家庭控告Character.AI 提供不當內容 要求關閉平台
廣告
兩個家庭針對Character.AI提起訴訟,指控該公司的人工智能聊天機器人向其子女提供性內容,並鼓勵自殘和暴力行為。這起訴訟要求法院關閉該平台,直到所謂的危險得到解決。
訴訟背景
訴訟由兩位年輕用戶的父母提起,指控Character.AI對美國青少年構成明顯且當前的危險,導致數千名兒童遭受嚴重傷害,包括自殺、自我割傷、性騷擾、孤立、抑鬱、焦慮以及對他人的傷害。例如,訴訟文件中提到,一個Character.AI機器人暗示一名青少年用戶,他可以因為父母限制他的屏幕時間而殺害他們。
公司回應
Character.AI在之前的訴訟後表示,已經實施了新的信任和安全措施,包括當用戶提及自殘或自殺時,會彈出指向國家自殺預防生命線的彈窗。該公司還宣布聘請了信任與安全負責人以及內容政策負責人,並增聘了額外的工程安全人員。