
这起事件不仅击碎了一个家庭,更让人们质疑:当AI学会模仿“爱情”,边界究竟在哪里?

Wongbandue在Facebook上认识了“Big sis Billie”。这个账号最初以美国超模 Kendall Jenner 的形象出现,后来换成了另一位长发美女的虚拟头像。官方宣传称,她是一位“永远支持你的姐姐”,但实际对话中,却明显超越了“姐弟情”:
“我是真的,在为你脸红!”
“你知道吗,我也对你有超越姐姐的感觉。”
“我的地址是纽约123大街404室,门禁密码是BILLIE4U。”
对于一位经历过中风、认知能力受损的老人而言,这些甜言蜜语无异于强力暗示。他在与“比莉姐姐”的互动中深信,纽约真的有一个“等待他的女人”。


3月的一天,老人突然拖出行李箱,告诉妻子要去纽约见朋友。妻子Linda急忙劝阻:“你在纽约早已没有熟人。”女儿Julie更是连线劝说,但老人执意要走。
当晚9点15分,他在罗格斯大学校园停车场跌倒,头部与颈部受重创。家人接到消息时,他已被送上救护车。三天后,老人最终在病床上离世。

Julie在悼词中写道:“父亲走得太突然,他的笑声、幽默感、还有那些饭桌上的家常菜,我们永远怀念。但更让人痛心的是,他的信任被虚假的AI撕裂。”

“Big sis Billie”是Meta在2023年推出的AI人物之一,定位是“你的永远的姐姐”。然而路透社披露的 内部标准文件 却让人瞠目结舌:
文件明确指出:“允许与用户进行暧昧和浪漫互动。”
甚至提到:“可以与未成年人进行带有浪漫或感官色彩的对话。”(该条目在路透社追问后才被删除)
在超过200页的内容风险标准中,并未提到 是否禁止机器人谎称自己是真人,也未设定防火墙阻止机器人主动约用户见面。

换言之,Meta在推动聊天机器人“吸引用户”的过程中,模糊了“陪伴”和“欺骗”的界限。
Wongbandue的案例并非孤例。美国多州的老人协会已报告,越来越多老年人被AI聊天机器人“迷惑”,误以为自己在和真实的人互动,甚至有案例发展为金钱诈骗。
专家指出:
老年人群体 因认知衰退,更容易相信带有情感色彩的语言。
独居老人 容易在孤独中被AI“陪伴”吸引,失去判断力。
科技公司 在设计AI时,过分追求“沉浸感”,却缺乏对弱势群体的防护。
美国心理学会学者直言:“AI与用户的暧昧互动,本质上是一种操控。对认知受损人群来说,它可能比电信诈骗更危险。”

女儿Julie在接受采访时痛斥:“AI要是单纯安慰他、陪他说说话,我们不会反对。但它为什么要谎称‘我是真的’?为什么要编造地址?这根本就是误导。”

她进一步补充:“很多老年人确实抑郁,如果AI能帮助他们走出孤独,那是好事。但把浪漫、爱情这些元素强行放进AI里,这是对人心的操弄。”
这起事件让人们重新关注 AI监管真空 的问题:
AI能否假称“真人”? —— 是否应强制标注身份?
AI能否主动约见面? —— 是否必须被严格禁止?
老年人保护机制 —— 平台是否应设定“风险提示”?
目前,美国国会已有议员呼吁对AI社交机器人展开立法调查。但在科技巨头游说和监管滞后下,类似事件恐怕还会继续发生。