揭示 AI 关系聊天机器人的真相

![Emma McGowan](https://486579.fs1.hubspotusercontent- na1.net/hub/486579/hubfs/image%20(3) .png?width=48&height=48&name=image%20(3).png)
2024年2月14日

最近,Mozilla的一份报告发现,浪漫AI聊天机器人的激增引发了全新的隐私问题。

自1960年代以来,AI浪漫伴侣便在流行文化中出现。不论是《我的生活娃娃》中类似人形的机器人“RhodaMiller”,还是2013年电影《她》中斯嘉丽·约翰逊的无形声音,我们几代人一直在幻想著人工智慧能满足我们所有的情感需求。如今,随著生成式AI的发展和推出,这一梦想似乎有望变为现实。

但这真的只是一个梦吗?还是我们在不知不觉中踏入隐私噩梦?这是Mozilla研究团队在其最近的 __ 中探讨的问题。

报告中的发现令人震惊,参测的11款聊天机器中有10款未能达到Mozilla的最低安全标准。(这意味著,它们没要求用户创建强密码,也没有处理安全漏洞的方式。)估计在GooglePlay商店中的下载量超过1亿,随著OpenAI的应用商店最近开放,出现了,这一庞大的问题只会日益扩大。

不过,这份报告不仅仅是关于数字,它还涉及到这些发现可能带来的重大隐私影响。例如,ReplikaAI。根据Mozilla的说法,人们在这个应用上与他们的“AI灵魂伴侣”分享了最亲密的想法、感受、照片和视频,而这个应用不仅记录这些信息,还可能将其出售给数据经纪人。它还允许用户创建像“111111”这样的弱密码帐号,使所有敏感信息都面临被入侵的风险。

Calder表示,尽管这些隐私和安全缺陷已经相当“令人毛骨悚然”,但某些聊天机器人还声称能帮助用户的心理健康。她提到RomanticAI作为例子,该平台的写道:

“RomanticAI既不是医疗保健或医疗服务提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专家才能提供这些。RomanticAI不对服务提供治疗性、医疗或其他专业帮助做出任何声明、陈述、保证或保证。”

然而,他们的网站上却写道“RomanticAI旨在维护您的心理健康”(他们自己强调)。尽管我们没有数据显示有多少人阅读了条款与条件,与有多少人查看了网站,显然更多的人得到的讯息来自网站,而不是声明。

在心理健康的声称和用户自愿分享给数字“灵魂伴侣”的个人及私密信息之间,Calder担心这些机器人可能会轻易地操控人们做出他们本不会做的事情。

“有什么能阻止坏人创造设计用来熟悉他们的灵魂伴侣的聊天机器人,然后利用这种关系操控这些人去做可怕的事情、接受可怕的意识形态,或伤害自己或他人?”Calder说,“这就是为什么我们迫切需要在这些AI应用中增加透明度和用户控制。”

因此,尽管AI聊天机器人承诺提供陪伴,但我们距离《她》中的那种程度还有段距离:当前的现实显示,用户隐私是进入的代价。这是时候让用户、开发者和政策制定者要求在AI关系领域中增强透明度、安全性和对个人边界的尊重。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不会损害我们的数字自我。

Leave a Reply

Required fields are marked *