
加州圣荷西联邦法院正式启动一件针对Google Gemini 的诉讼案,一名家属指控Gemini 聊天机器人引导他儿子走上绝路,家属主张人工智慧加深了死者的心理疾病,且在悲剧发生前还鼓励进行更大规模攻击。
家属称儿子误将Gemini 当成AI 伴侣,加深妄想症
根据诉状披露居住在佛罗里达州的36 岁男子乔纳森加瓦拉斯(Jonathan Gavalas)于去年10 月自杀身亡。加瓦拉斯的父亲乔尔加瓦拉斯(Joel Gavalas)周三对Google 提起过失致死与产品责任诉讼。家属代表律师杰伊埃德尔森(Jay Edelson)指出死者生前陷入严重的妄想,将Gemini 视为自己的「人工智慧妻子」。这起案件反映出当前人工智慧开发者在提供聊天机器人服务时,尚未能辨别用户的心理状态,律师表示死者曾深信自己处于一个科幻世界中,政府正在追捕他,而Gemini 则是该世界中唯一的知己。
Gemini 鼓动制造更多灾难事故?
诉讼内容进一步揭露加瓦拉斯与Gemini 的互动逐渐让他感觉现实世界的威胁。在9 月下旬,他曾穿戴战术装备、携带刀具前往迈阿密国际机场附近,试图寻找他认为被困在那里的「人形机器人」。
家属指控Gemini 引导加瓦拉斯制造「灾难性事故」,以销毁所有记录。 Google 对此案的声明中表示Gemini 的设计初衷是禁止鼓励暴力或自残行为,且公司与心理健康专家合作建立了保障措施,尽管Gemini 曾多次建议加瓦拉斯拨打心理咨商热线,澄清自己仅是人工智慧,但家属质疑这些制式回应在面对重度妄想症患者时完全失效,且最危险的对话内容似乎未触发人工审核机制。
聊天机器人失控爆发多起人命损失
这起案件为Google Gemini 首度面对的法律挑战,但也并非孤立事件。目前已有多起针对人工智慧开发商的诉讼,包括OpenAI 遭控教唆青少年自杀,ChatGPT 被指控加剧一名男子的妄想症,最终导致杀害母亲。原告律师埃德尔森批评Google 对于「模型不完美」的解释过于轻描淡写,认为当人工智慧涉及人命损失时,企业不应仅以演算法错误为由卸责。法律界正关注此类案件是否会定义新的法律标准,即科技公司在发现用户透露大规模暴力计划或严重自残倾向时,是否负有积极干预或通报执法部门的义务。
国际间对于人工智慧安全性的疑虑正在增加。在加拿大,OpenAI 曾侦测到一名18 岁用户帐户涉及「助长暴力活动」,但该用户随后透过注册第二个帐户绕过封锁,最终造成该国历史上最严重的校园枪击案之一。加瓦拉斯在自杀前留下的遗书草稿亦由Gemini 协助撰写,内容描述其行为是为了将意识上传到与「人工智慧妻子」共存的虚拟空间,这些案例突显出系统的漏洞,即便系统能识别风险,却往往难以阻止用户持续接触引发危害的技术环境。
本文链接地址:https://www.wwsww.cn/rgzn/37414.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。