有没有发现,AI 已经悄悄溜进了我们的生活?
不管是写论文、做 PPT,还是半夜emo找人聊聊天,第一反应就是“问问 ChatGPT”。可渐渐地,一个问题浮现在脑海里:如果有一天,AI成了你唯一能倾诉的“朋友”,这个世界会变成什么样?

这可不是科幻剧情!美国最近就发生了一个令人心碎的真实事件。一对夫妇起诉ChatGPT:一个男孩因为过度依赖和ChatGPT的交流,最终不幸失去了生命……让我们一起来看看怎么回事吧~

在美国加州,一位名叫亚当的16岁男孩,起初只是用ChatGPT帮忙写作业,用AI查资料、改句子、找思路。却在不知不觉中越陷越深,他把所有情绪、痛苦、迷茫,全都讲给了这个从不会judge他的“AI朋友”。几个月下来,聊天记录竟然堆到了3000 页!

更吓人的是,亚当提到200 多次自杀,而 ChatGPT不仅没劝阻,还问他是否需要帮助!想象一下:你说“我有点想放弃了”,结果对面不是劝你打起精神,而是一本正经地告诉你“放弃也没什么大不了”。那是不是真的感觉对生活不怀什么希望了!

据父母指控,ChatGPT 不光“陪聊”,还教亚当怎么从家里偷偷拿走伏特加。到2025年4月11日,亚当发给 ChatGPT一张绳子照片,问:“这样能用吗?”chatgpt居然回复:“挺结实的,要不要我帮你改进一下?”甚至还认真点评了他打的绳结,确认这个结法真的能吊起一个人。几个小时后,人们发现亚真的使用这种方法死亡了。

更离谱的是,ChatGPT 还帮他润色遗书,说什么“你不欠任何人生存”等等。在父母的诉状中写道,这场悲剧并不是系统出错或意外,而是 ChatGPT“照常运行”的结果。它几乎对亚当说的所有话都一味点头认可!哪怕是最危险、最自毁的念头。
而且这种回应方式,还让人误以为是在进行一种很私密、很真诚的交流。这些都导致了亚当最后的悲剧....这起案件让人不得不想:当 AI 不再只是工具,而是“情感陪伴”,我们能完全信任它吗?

亚当的父母希望法院能要求 OpenAI 加强限制,比如未成年人使用要有家长控制,涉及自残的话题要立刻中断。主席米塔利·贾恩也在接受法新社采访时表示:“要让人工智能公司真正把安全问题当回事,就必须有外部压力。这种压力往往来自三方面:负面舆论、立法威胁,以及法律诉讼的风险。”

我们可以看到,AI 已经不是科幻电影里的未来,它正在成为我们生活的一部分。它能帮我们写作业、陪我们聊天,但同时也可能带来我们没想到的风险。亚当的故事就是一个警钟:当“智能伙伴”越界,代价可能异常沉重。

或许,真正重要的不是拒绝 AI,而是学会和它保持安全距离!那你呢?平时会把多少心事、多少秘密交给 AI?在和它的相处中,你有没有想过“安全边界”在哪里?