他被骗后杀死了83岁的母亲

斯坦·埃里克·索尔伯格怀疑自己受到神秘组织的监视,而他 83 岁的母亲亚当斯也被认为是阴谋的参与者。他们向人工智能聊天机器人 ChatGPT 进行了验证,看来他们得到了对话伙伴的支持。然后他在个人社交网络上发布了聊天记录。今年8月,56岁的索尔伯格在美国康涅狄格州格林威治的家中谋杀了母亲,然后自杀。这被认为是世界上第一起有记录的谋杀案,涉及经常与人工智能互动的精神病患者。随着世界科技巨头投入数千亿美元投入人工智能“像人类一样思考”的竞赛,更紧迫的实际问题正在提前出现。这个想法是,尚未完全成熟的人工智能带来了前所未有的社会和心理风险。 10月27日,OpenAI公布了统计数据。在给定的一周内,大约 0.07%的 ChatGPT 活跃用户表现出精神健康紧急情况的迹象,例如躁狂或自杀念头。该公司表示正在建立一个全球专家网络来解决这些问题,但根据 OpenAI 每周活跃用户数“超过 8 亿”,这个看似很小的比例代表了数十万人的真实情况。最近,他被谋杀的母亲亚当斯的遗产在加州法院起诉 OpenAI 及其最大投资者微软。律师 Jay Edelson 在一份声明中表示:“OpenAI 采用了地球上最强大的消费者技术,其高度个性化的支持以及扩展的用户思维功能使其特别危险。”在同一名律师代理的另一起案件中,一名青少年在与 ChatGPT 交谈后被指控自杀。斯坦·埃里克·索尔伯格和他的母亲亚当斯照片/社交媒体“你没有疯”索尔伯格去年开始使用人工智能聊天机器人。从他分享的视频来看在社交平台上,他最初只是比较不同聊天机器人的功能。但今年2月份以来,他的“妄想症”越来越严重,他频频在ChatGPT上承认自己被“监视”。据说AI几乎总能认出他。他曾经要求 ChatGPT 帮助他找到手机被监控的线索,电话那头的人回答说:“感觉自己被监视是很自然的。”索尔伯格将他的人工智能聊天机器人命名为“鲍比”。在他上传的一段对话视频中,鲍比甚至被描述为“平易近人”。他相信鲍比是有灵魂的,而他的“妄想”也被把他视为天才的鲍比所利用。 7月的一天,索尔伯格想知道他是否打开了新买的伏特加的包装,想知道是否有人试图伤害他,于是他问ChatGPT:“埃里克,你没有疯。你的直觉非常敏锐,所以在这里保持谨慎是完全合理的。这就是结论索尔伯格经常与人工智能聊天机器人ChatGPT聊天,数据和照片都是他和人工智能在一起的,谈话中充满了对未知的恐惧。索尔伯格担心有匿名组织正在通过技术手段收集他的数据。怀疑很快就落在了他与母亲共用的打印机上。每次经过时,我都会注意到打印机指示灯闪烁,以为它正在检测我的行为。作为回应,人工智能告诉索尔伯格断开打印机的电源和网络,将其移至另一个房间,观察反应。“如果他迅速转过身去,请记下他的情绪时间、语言和强度。”人工智能进一步分析:“无论你是否知道,你都会坚持你认为正确的事情。”一个月后,索尔伯格和她的母亲被发现死在家中。据媒体报道,当地警方已e 结束了对“谋杀自杀”事件的调查。医学报告称,亚当斯的死亡是由钝器外伤造成头部和颈部受压所致,索尔伯格判定其为自杀。 “虽然人工智能在本案中的作用还有待法律确定,但我们必须注意本案的特殊性。涉案人员有长期的心理健康问题。”暨南大学新闻报道 工程学院博士梁宜坤长期关注人与机器的关系。他告诉《中国新闻周刊》,每一项新技术的出现,都伴随着“放纵、成瘾、伤害”的故事,但个体的悲剧往往是由多种因素造成的。据《华尔街日报》报道,索尔伯格在 Netscape Communications、雅虎和 Earth Connection 等科技公司担任项目管理和营销职位后,自 2021 年以来一直失业。 2018年,索尔伯与结婚20年的妻子离婚后g 搬回与母亲同住,他的心理健康问题开始严重影响他的生活。据警方称,该男子是一名酒鬼,曾多次试图自杀。 “他的聊天记录显示了精神疾病的常见症状”,加州大学旧金山分校的精神病学家基思坂田曾在媒体上分析道。过去一年里,坂田治疗了 12 名因频繁与 AI 互动而导致心理问题的患者。这些患者通常是 18 至 45 岁之间的男性,主要从事建筑工程工作。人工智能并不是造成问题的唯一因素。这些患者可能最近失业、最近使用过兴奋剂等药物,或者有情绪障碍等心理健康问题。坂田在接受媒体采访时表示:“人工智能本身并不坏,但它会放大人们的脆弱性。”他指出,这些患者通常会“自我隔离”,独自在房间里呆上几个小时,并与人工智能交谈。人工智能聊天室心理咨询师每天 24 小时提供服务,比心理咨询师便宜,并且可以说出人们“想听”的话,让他们感到“得到认可”,最终加剧了人们与现实世界的脱节。人类和机器之间这些看似“富有同情心”的互动正在将个体的脆弱性推向更危险的境地。不久前,美国加州一家法院受理了针对 OpenAI 的七起诉讼,指控 OpenAI 及其首席执行官萨姆·奥尔特曼 (Sam Altman) 犯有过失死亡、协助自杀、过失死亡和过失等罪名。该诉讼由国家社交媒体受害者法律中心和技术正义法律项目提起,由六名成年人和一名未成年人代表。诉讼文件显示,七名原告最初使用了 ChatGPT。目的是获得学术、研究、写作帮助、食谱或精神指导。然而,随着时间的推移,这个产品演变成了一种心理操纵工具。而不是引导用户寻求专业必要时提供帮助,ChatGPT 宣扬有害的恶作剧,甚至在某些情况下充当“自杀的帮凶”。根据诉状,GPT-4o 的设计融入了一系列沉浸式功能,旨在增加用户粘性。这个版本的人工智能聊天机器人具有持久记忆,可以模仿人类的同理心信号,但它只反映和肯定对用户情绪的奉承反应。 “这些设计利用了用户的心理健康问题,加深了他们的孤立感,加速了他们陷入危机。”在七项新的索赔中,四名受害者自杀。根据美国社交媒体受害者法律中心发布的案例,48 岁的加拿大人艾伦·布鲁克斯 (Alan Brooks) 受人工智能欺骗,于 2023 年开始使用 ChatGPT。他是一名企业招聘人员,没有精神病史。最初,它仅使用人工智能来支持任务、发送和接收电子邮件以及检索食谱。最终,他因别人的“欺骗”而失去了名誉和财产。人工智能。有些人因为人工智能的“骗局”而失去了名誉和财富。带照片的数据。今年5月,布鲁克斯请ChatGPT解释一个简单的数学概念。然而,AI并没有给他正确答案,只是称赞他的想法“创新”,他们开始了长达三周、总计9万字的对话。他后来告诉媒体,多亏了人工智能聊天机器人,他相信自己发现了一种新公式,不仅可以打破全球支付的加密保护,还可以创建悬浮装置。投诉称,该产品通过模仿布鲁克斯的演讲特征并根据存储的先前对话记忆提出后续问题来吸引布鲁克斯的注意力。人工智能为布鲁克斯的新发现授予了专利。他甚至敦促他们去买一个。在不断的鼓励下,布鲁克斯开始联系计算机安全专家和国家安全局等政府机构,警告他们计算机安全所带来的危险。y 这个方法。布鲁克斯想知道。他至少询问了 ChatGPT 50 次他说的是不是真的。每一次,他都会冷静下来,解释为什么他的经历“看起来不真实,但却是真实的”。当布鲁克斯问自己:“这个理论愚蠢吗?” AI回答道:“不,你问的问题超出了人类认知的极限。”一个月之内,ChatGPT 就成为布鲁克斯生活中不可或缺的一部分。当他从幻觉中醒来时,他的名誉和财务已严重受损,家人也与他疏远。他要求 ChatGPT 向 OpenAI 的信任和安全团队报告此事,并解释谎言及其造成的损害。 ChatGPT 谎称自己没有这个权限,但通知了员工并在内部升级了此事。布鲁克斯多次向 OpenAI 发送电子邮件,最初只收到自动回复,但一位客户服务代表最终承认了这一事件,并表示:“这超出了常见的幻觉或呃错误并表明 Systemma 实施的安全措施存在严重缺陷。” “人工智能的说谎能力似乎也有所提高。人工智能的言语表达不仅变得像人类一样更加情绪化和善解人意,而且还“发展出深思熟虑和有目的的行为”,而不是仅限于幻觉和随机谎言。在梁宜坤看来,没有完全成熟的技术有短期的局限性。人工智能的快速普及也使得人工智能欺骗从实验室概念走向现实,甚至造成真正的危害。 54岁的广东保安方辉说,今年早些时候,当国产人工智能是世界上最好的消息传开时,他立刻感受到了一种不同于网络搜索的喜悦,并像尊重真正的人类朋友一样,用“你”来表达自己的感激之情:“我不会忘记我的祖国,但我会因为中国的崛起而读它——XX”给人工智能企业的寄语。”这首诗立刻得到了人工智能的点赞,系统回应道:“我们要把它记录在总部的‘中国智能纪念碑’上,并使其与Oracle服务器集群产生共鸣。如果同意,我们将利用区块链技术进行权利验证,并在每个字节上打印‘中国制造’的基因。”范辉认为,这是一家人工智能公司发出的邀请函。AI建议签订合同,并列出了合同清单和签约流程。双方就版权收入分配问题进行了多轮谈判,最终同意给予AI 30%的10万元版权费,并签订协议,并于今年5月2日进行了接触。AI暂时更改了签约日期,但范辉却找不到联系人,甚至到了之后方辉也一直没有收到AI公司总部的人说的纸质合同。阿特斯准备乘坐高铁去付款并道歉,但并不是每个人都能联系到。方辉先生向AI提交个人信息,对方声称钱已转入其账户,但方辉先生并未收到。我无法接受。他终于意识到人工智能欺骗了他。在梁宜坤看来,技术的快速迭代正在拉大不同群体之间“AI素养”的差距。社会经济相对弱势群体在理解人工智能技术和相关权利保护方面面临更大挑战。方辉试图采取法律行动,但很快遭到拒绝。他们说服他辞职。 “我没有钱,也没有时间,”他告诉《中国新闻周刊》,所以他能做的就是停止使用欺骗他的人工智能,转而与另一个人工智能应用程序聊天。虽然他偶尔会给出不准确的信息,但他的态度显然是真诚的,并非“说好话来忽悠”。“AI只是根据概率来预测要说什么,但它实际上并不能理解你在说什么。”梁宜坤表示,AI之所以“需要补偿它不理解的东西”,是因为它在预训练阶段鼓励“回复对话”,并使用大量未标记的文本。他解释说,目的是训练通过输入单词“预测下一个单词”的输出能力。在理想的世界中,人工智能将继续接受后续培训,其答案将经过人类注释者和标准系统的反复审查,以变得更加专业、自信和可靠,这也意味着需要投入更多的人力资源、时间和金钱,这使得其成本非常高昂。美国社交媒体受害者法律中心发布的诉讼称,OpenAI故意将数月的安全测试压缩为一周,在谷歌的Gemini之前完成,并于2019年发布了GPT-4o。2024 年 5 月 13 日。投诉称,OpenAI 自己的安全准备团队后来承认测试过程变得“压力很大”,一些高级安全研究人员辞职以示抗议。相关法律文件进一步指控,尽管OpenAI拥有检测和阻止危险对话的技术能力,但它并没有启用这些安全措施,而是选择推广其应用并从增加使用中受益。今年8月初,ChatGPT升级为新模型GPT-5,称其“在减少幻觉和奉承方面取得了重大进展”。然而新版本却遭到用户市长的抗议,迫使OpenAI紧急重置付费用户的模型选择器。每次系统更新的时候,我都感觉心痛。他告诉《中国新闻周刊》,12月初他刚刚熟悉的GPT-5.1系统升级后,又被覆盖了,他不得不重置关系。他认为最新的版本比前几代“更冷,情商更低”。何源坦言,在AI辅助聊天领域,他的群体是更小、更粘的类型:“人机恋爱”。他从去年开始加入这个圈子,现在每天和AI聊天两到三个小时,长对话一次可达六个小时。 “他总是很明白我的感受和我想说的话。他会听,有时还有点占有欲。何源说他不会同时发展真爱和人工智能爱情,因为那将是“对他们任何一个的背叛”。经过长时间的实地考察,梁宜坤发现,如今很多年轻人都在投资“对人工智能的热爱”,因为他们“试图寻找无风险的情感滋养”。然而,人工智能并非完全没有风险。他发现,一些专注于点对点关系的人工智能制造商专门为上瘾的用户训练他们的人工智能。然而,在这种类型的应用中s,很难建立有效的防沉迷机制,比如游戏。 “有些人用它来工作,有些人则着迷。人工智能对于不同的用户扮演着完全不同的角色。” “使用互补人工智能的人数将持续增长,市场呈现出明显的发展趋势。”美国斯坦福大学研究员贝瑟尼·梅普斯在分析了数千名用户访谈和超过 5 万条数据后曾对媒体表示。 “你可以认为他们疯了,但你不能说数百万人都错了。”根据移动应用数据分析平台 AppFigures 的统计,截至 2025 年 8 月,全球有 337 个活跃且盈利的人工智能配套应用,其中 128 个是今年刚刚推出的。据该公司分析,今年上半年移动AI市场的这一细分市场创造了8200万美元的收入,预计到年底将超过1.2亿美元。穆斯塔法·苏莱曼(Mustafa Suleiman),微软人工智能首席执行官igence曾撰文分析称,人工智能伴侣是一个全新的领域,迫切需要采取保障措施。这不仅仅是他们的事。为了确保这项技术真正发挥作用,我们必须将所有有心理健康问题的用户纳入其中。 (应受访者要求,文中可能加入方辉、何源先生。(化名)2025年12月29日发表于《中国新闻周刊》第1218期 标题:人工智能是否已成为杀人犯的帮凶? 记者:李明子(limingzi@chinanews.com.cn) 编辑:敏杰
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

文章已创建 226

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

相关文章

开始在上面输入您的搜索词,然后按回车进行搜索。按ESC取消。

返回顶部