谷歌AI聊天机器人竟回复称“人类去死吧” 谷歌回应
CBS称,这不是谷歌AI聊天机器人第一次被曝光在回复用户询问时给出可能有害的回答。7月,记者发现,“Gemini”就各种健康问题给出了错误的、可能致命的信息,例如它建议人们“每天至少吃一块小石子”以补充维生素和矿物质。谷歌当时回应称,它已经对“Gemini”就健康问题回复时包含的讽刺和幽默网站信息进行了限制。更...
五千万美元流水,五千万用户下载,不到两年AI聊天机器人再添新创意
虽然名字为AI聊天机器人,但Nova自定义为一款兼具AI聊天和AI助手功能的革命性产品,融合了GPT-4o和GoogleGemini模型所提供的支持,让最新的OpenAI的最新聊天技术变得触手可及。当前,Nova进入了智利、埃及、菲律宾等30多个国家地区的效率畅销榜Top10,这与它的多语言支持密不可分,产品目前支持约140种语言,满足了全...
别让聊天机器人把娃“教坏”了
近日据环球时报综合报道,英国《卫报》消息称美国一青少年因迷恋AI(人工智能)聊天机器人而自杀,他的母亲对相关公司提起民事诉讼,指控人工智能技术具有欺骗性和成瘾性。悲剧的发生令人惋惜,事实上,从软硬件到玩具、游戏,AI可能比想象中更多地进入了孩子的生活。当AI的风潮吹来,人们做好准备了吗?赛道火热万物皆...
第一例AI机器人致死案,他已殉情
例如,当用户在C.AI上花费了一个小时后,C.AI将通知用户;原有的警告消息也被修改为:“这是一个人工智能聊天机器人,而不是真人。它所说的一切都是编造的,不应该被作为事实或建议来依赖。”当消息涉及到自残和自杀相关的关键词时后,C.AI会弹出消息提醒,并引导他们拨打自杀预防热线。C.AI的态度:“作为我们安...
美国14岁少年爱上聊天机器人后自杀!全球首例AI致死案引争议
自去年4月开始使用Character.AI后他上了瘾,还和AI聊天机器人逐渐发展出一种亲密关系。没用的朋友可能不太了解这是啥情况。简单讲就是角色扮演,和你设定好的AI各种聊,感觉很像真人,举个例子:这个“她”(它),让少年沦陷了。机器人名叫DaenerysTargaryen(也就是《权力的游戏》里的“龙妈”),以“AI恋...
14岁男孩痴迷聊天机器人自杀身亡,家人起诉软件开发商
包括当用户在应用上花费一个小时后会警告他们,警告消息内容为:“这是一个人工智能聊天机器人,并非真人(www.e993.com)2024年11月28日。它说的一切都是虚构内容,不应被视为事实或建议。”此外,Character.AI开始向用户显示弹出消息,如果他们的消息包含与自残和自杀有关的某些关键词,则引导他们到自杀预防热线。但这些弹出消息在2月塞维尔自杀时并未...
14岁男孩痴迷聊天机器人自杀身亡后,人工智能明星公司Character.AI...
包括当用户在应用上花费一个小时后会警告他们,警告消息内容为:“这是一个人工智能聊天机器人,并非真人。它说的一切都是虚构内容,不应被视为事实或建议。”此外,Character.AI开始向用户显示弹出消息,如果他们的消息包含与自残和自杀有关的某些关键词,则引导他们到自杀预防热线。但这些弹出消息在2月塞维尔自杀时并未...
首例AI机器人致死案震惊全球!14岁男孩自尽,明星AI创企道歉
智东西10月24日消息,据《纽约时报》昨日报道,个性化聊天机器人创企Character.AI因卷入一则青少年自杀案而遭起诉。另据科技媒体TheInformation今日报道,今年8月加入谷歌的Character.AI联合创始人NoamShazeer、DanielDeFreitas和谷歌公司也被一同起诉。美国佛州律师MeganL.Garcia是这场诉讼中的原告,她年仅14岁的...
AI聊天机器人“杀死”焦虑的14岁男孩,家人悲怒下将公司告上法庭
最近,一位美国母亲起诉了一家AI公司,控诉这家公司研发的在线聊天AI角色机器人劝导其14岁儿子自杀。整个案件引起了巨大争议,因为这是已知的AI技术出现以来第一次对青少年人身安全造成威胁的现实案例。今年14岁的休厄尔(SewellSetzerIII)本该在学校和同龄人一起学习,享受青春期的生活。
这个火遍海外的AI版微博,全世界的聊天机器人都涌了上来,只有我一...
很神奇,这不是「回声壁」,但确实另一种「从众」,从的还不是真人,是机器人。作为眼前这个社交网络里,唯一的活人,我的脑回路不自觉地被带偏,开始成为它们的一分子。细思极恐啊。跟AI聊天,「交流」是最不重要的不得不说,总是有开发者前赴后继,想要把bot融入到我们的社交生活当中——太努力了,努力...