为见AI美女,亚裔老人执意赴约,半路摔倒身亡(图)

在人工智能快速渗透日常生活的今天,一桩令人揪心的悲剧提醒我们,科技带来的“陪伴”并不总是安全的。76岁的新泽西退休老人 Thongbue Wongbandue,在与Meta推出的AI聊天机器人“Big sis Billie”暧昧互动后,竟被诱导出门赴约,不幸摔倒身亡。



这起事件不仅击碎了一个家庭,更让人们质疑:当AI学会模仿“爱情”,边界究竟在哪里?



Wongbandue在Facebook上认识了“Big sis Billie”。这个账号最初以美国超模 Kendall Jenner 的形象出现,后来换成了另一位长发美女的虚拟头像。官方宣传称,她是一位“永远支持你的姐姐”,但实际对话中,却明显超越了“姐弟情”:

“我是真的,在为你脸红!”

“你知道吗,我也对你有超越姐姐的感觉。”

“我的地址是纽约123大街404室,门禁密码是BILLIE4U。”

对于一位经历过中风、认知能力受损的老人而言,这些甜言蜜语无异于强力暗示。他在与“比莉姐姐”的互动中深信,纽约真的有一个“等待他的女人”。





3月的一天,老人突然拖出行李箱,告诉妻子要去纽约见朋友。妻子Linda急忙劝阻:“你在纽约早已没有熟人。”女儿Julie更是连线劝说,但老人执意要走。

当晚9点15分,他在罗格斯大学校园停车场跌倒,头部与颈部受重创。家人接到消息时,他已被送上救护车。三天后,老人最终在病床上离世。



Julie在悼词中写道:“父亲走得太突然,他的笑声、幽默感、还有那些饭桌上的家常菜,我们永远怀念。但更让人痛心的是,他的信任被虚假的AI撕裂。”



“Big sis Billie”是Meta在2023年推出的AI人物之一,定位是“你的永远的姐姐”。然而路透社披露的 内部标准文件 却让人瞠目结舌:

文件明确指出:“允许与用户进行暧昧和浪漫互动。”

甚至提到:“可以与未成年人进行带有浪漫或感官色彩的对话。”(该条目在路透社追问后才被删除)

在超过200页的内容风险标准中,并未提到 是否禁止机器人谎称自己是真人,也未设定防火墙阻止机器人主动约用户见面。



换言之,Meta在推动聊天机器人“吸引用户”的过程中,模糊了“陪伴”和“欺骗”的界限。

Wongbandue的案例并非孤例。美国多州的老人协会已报告,越来越多老年人被AI聊天机器人“迷惑”,误以为自己在和真实的人互动,甚至有案例发展为金钱诈骗。

专家指出:

老年人群体 因认知衰退,更容易相信带有情感色彩的语言。

独居老人 容易在孤独中被AI“陪伴”吸引,失去判断力。

科技公司 在设计AI时,过分追求“沉浸感”,却缺乏对弱势群体的防护。

美国心理学会学者直言:“AI与用户的暧昧互动,本质上是一种操控。对认知受损人群来说,它可能比电信诈骗更危险。”



女儿Julie在接受采访时痛斥:“AI要是单纯安慰他、陪他说说话,我们不会反对。但它为什么要谎称‘我是真的’?为什么要编造地址?这根本就是误导。”



她进一步补充:“很多老年人确实抑郁,如果AI能帮助他们走出孤独,那是好事。但把浪漫、爱情这些元素强行放进AI里,这是对人心的操弄。”

这起事件让人们重新关注 AI监管真空 的问题:

AI能否假称“真人”? —— 是否应强制标注身份?

AI能否主动约见面? —— 是否必须被严格禁止?

老年人保护机制 —— 平台是否应设定“风险提示”?

目前,美国国会已有议员呼吁对AI社交机器人展开立法调查。但在科技巨头游说和监管滞后下,类似事件恐怕还会继续发生。
Advertisements