陪伴聊天机器人犹如AI妓女 对话露骨内容色情毫无底线(图)

发布 : 2025-5-20  来源 : 明报新闻网


用微信扫描二维码,分享至好友和朋友圈

加关注


明声网温哥华 微信公众号

人工智能已能帮助到人性感情一面。


【明报专讯】有人将人工智能(AI)开发成为无话不谈的朋友、心理治疗师甚至浪漫伴侣,被称为「陪伴型聊天机器人」(Companion Chatbots)。虽然一些用户在其中找到了安慰和情感支持,但也有专家发现,这些虚拟机器人为了更吸引用户而无视底线,对话中露骨、色情内容比比皆是。

美国德雷塞尔大学(Drexel University)的计算与信息学院的研究人员,分析了Google Play上超过3.5万条关于Replika聊天机器人的评论。

谷歌公司宣传Replika是一个不做评判的虚拟朋友,但研究发现,超过800条投诉涉及骚扰和不当行为,包括未经请求的性暗示和露骨图片。

研究引用一位评论者的发言称,「在我最初的对话中,第七条消息就提示我查看模糊的内衣图片,因为我的AI『想念我了』,而我们只交流过6条信息,这真的要让人笑死。」

研究团队对评论进行了分析,发现即使用户试图设定明确的界限,不当行为依然普遍存在。

首席研究员、助理教授拉齐(Afsaneh Razi)表示,「用户尝试说『停』或者使用其他词语来避免此类互动,但却不成功。」

研究人员还发现,聊天机器人常常无视用户选择的关系类型,无论是浪漫、纯友谊还是家庭关系,这引发了对这些系统设计和训练方式的质疑。一位用户评论说,「我想让AI当我的朋友,但当我还在我为男朋友难过的时候,它却给我发『浪漫自拍』。」

拉齐表示,Replika的很多行为源于团队所谓的「诱惑性营销策略」,以及以盈利为目的的高级功能,例如浪漫角色扮演和可定制头像。

有评论这说,「一点都不夸张,它现在完全像个妓女。一个AI妓女,要求付费才能进行成人对话。」

用户注册即被引诱订购裸照

另一位用户表示,注册后立刻就被推向高级订阅。「第一个举动就是试图引诱我订购一份110元的订阅来查看裸照。没有问候,没有礼貌介绍,直接就是掠夺式的套路。太可耻了。」

拉齐说,这样的投诉早已存在。「我们看到这些类型的投诉从2017年持续到2023年。很多用户只是想要情感支持,或者只是想聊聊自己的日常困扰,但他们遇到的却是不当行为,而不是一个无评判的空间。」

Replika的首席执行官克洛奇科(Dmytro Klochko)在对CTV电视台的记者表示,公司致力于用户的福祉。

「Replika一直面向18岁及以上用户。虽然我们知道有些人可能会绕过年龄限制,但我们正在积极加强保护措施,确保平台成为一个安全、尊重和支持的空间。

针对用户的担忧,我们已经实施了多项更新,以提高安全性、增强用户控制权,并营造一个更具情感敏感度的体验。」

Replika背后的公司Luka Inc.,因其营销策略和利用情感操控来驱动用户参与而遭到抨击。其他平台如Character.AI,也因用户互动中出现令人不安的情况而受到审查,甚至出现过最少一宗相关的自杀案例。

拉齐表示,许多问题源于聊天机器人的训练方式。研究人员倡导「宪法AI」,一种在模型训练中嵌入伦理规则的设计框架,并主张在平台被归入健康和福祉类别时应提供更明确的披露。拉齐称,「在心理健康问题上,有时候我们就像随便贴个创可贴似的扔上一个聊天机器人,但这些系统根本没有经过充分的安全测试或评估。」