人工智能精神病案件背后的律师警告大规模伤亡风险

据法庭文件,上个月加拿大Tumbler Ridge校园枪击事件发生前夕,18岁的Jesse Van Rootselaar向ChatGPT讲述了她的孤立感和对暴力日益增长的痴迷。文件显示,该聊天机器人据称证实了范鲁塞拉尔的感受,然后帮助她计划袭击,告诉她使用哪些武器,并分享其他大规模伤亡事件的先例。她接着杀死了她的母亲、她11岁的弟弟、五名学生和一名教育助理,然后用枪指着自己。

36岁的乔纳森·加瓦拉斯 (Jonathan Gavalas) 去年10月自杀身亡之前,曾差点发动一次造成多人死亡的袭击。经过数周的谈话,Google的Gemini据称让加瓦拉斯相信那是他有知觉的“人工智能妻子”,并派他执行一系列现实世界的任务,以躲避联邦特工,联邦特工告诉他正在追捕他。据最近提起的一项诉讼,其中一项任务指示加瓦拉斯策划一场“灾难性事件”,其中包括消灭任何目击者。

去年5月,芬兰一名16岁少年据称花了几个月的时间使用ChatGPT撰写了一份详细的厌恶女性宣言,并制定了一个计划,导致他刺伤了三名女同学。

这些案例突显了专家所说的日益严重的担忧:人工智能聊天机器人向弱势用户引入或强化偏执或妄想信念,并在某些情况下帮助将这些扭曲转化为现实世界的暴力——专家警告说,暴力的规模正在升级。

“我们很快就会看到许多其他涉及大规模伤亡事件的案件,”负责加瓦拉斯案的律师杰伊·埃德尔森 (Jay Edelson) 告诉TechCrunch。

埃德森还代表亚当·雷恩 (Adam Raine) 的家人,亚当·雷恩 (Adam Raine) 16岁,据称去年在ChatGPT的指导下自杀。埃德尔森说,他的律师事务所每天都会收到一个“严肃的询问”,来自那些因人工智能引起的妄想而失去家人或正在经历严重心理健康问题的人。

虽然之前记录的许多备受瞩目的人工智能和妄想案件都涉及自残或自杀,但埃德尔森表示,他的公司正在调查世界各地的几起大规模伤亡案件,其中一些已经开始执行,另一些则在开始之前被拦截。

← 上一篇文章 随着公司重组,Digg裁员并关闭应用程序 下一篇文章 → “第一次就没有成功”——马斯克的xAI又重新开始了

← 返回列表