AI个性化带来的危险

AI个性化带来的危险

人工智能数字概念

Getty Images

作者:Andrew Luttrell 和 Jake Teeny

2025年初数月间,Reddit上一个紧密联系的在线社区不知情地被人工智能渗透。这是一个社交平台上人们进行善意辩论的角落,分享观点并邀请他人说服自己。据《大西洋月刊》报道,研究人员在此进行了AI说服实验,试图验证AI能否提出足够强的论点来改变真实用户的看法。他们发现AI确实能做到这一点。

然而,这种行为尤其令人不安,因为有时AI会接触到用户的在线历史记录,以特定身份定制信息。行为科学家称这种沟通策略为“个性化说服”,有时个性化方法可能更具吸引力。谁不想获得与自己独特兴趣相关的内容,而不是一堆无关紧要的垃圾信息呢?

但AI正在逼近比Reddit上AI账号所做那种松散适应特征更令人担忧的事。如果AI能掌握我们所说的“深度定制”,它就能悄然进入我们的在线世界,了解我们内心的核心,利用这些个人信息以可能不受欢迎甚至有害的方式影响我们的信念和观点。

作为研究说服心理学的教授,我们最近协助汇集了世界领先专家的最新研究成果,出版了一本关于个性化说服的综合书籍。我们认为尽管传播者可以利用受众的基本信息来定制信息,但深度定制远超此类易获取的信息。它利用一个人的核心心理、核心信念、身份和需求来个性化信息。

例如,当信息与一个人最重要的道德价值观产生共鸣时,信息更具说服力。某事被认为是道德或不道德的原因可能有多种,但人们对这些原因的重视程度各不相同。例如,持更政治自由观点的人往往更关注公平性,因此更容易被论证政策公平性的论点说服。另一方面,持更保守政治观点的人则更关注对社区的忠诚度,因此更容易被论证政策维护其群体身份的论点说服。

阅读更多ChatGPT可能正在侵蚀批判性思维能力,根据一项新研究

尽管看起来像是一个新概念,但计算机科学家们已经研究了数十年的AI说服技术。其中一位作者最近制作了一期播客,介绍IBM的“辩论项目”,该项目花费数年时间训练AI系统进行辩论,并与专家人类辩手反复优化。2019年,在一次现场活动中,它击败了人类世界冠军辩手。

随着像用户友好的ChatGPT移动应用这样的可访问AI工具的兴起,任何人都可以利用AI实现自己的说服目标。研究人员 显示 通用的AI生成信息可以与人类生成的信息一样有说服力。

但AI能否实现“深度定制”?

要实现大规模自主深度定制,AI需要同时做到两件事,目前似乎已经具备这种能力。首先,它需要学习一个人的核心心理档案,以便知道该拉哪些杠杆。已有新证据表明AI可以从Facebook帖子中合理准确地检测出人们的人格。它不会止步于此。哥伦比亚商学院教授、《Mindmasters》一书作者Sandra Matz博士在播客中告诉我们:“你试图预测的几乎所有东西,都可以根据人们的数字足迹以某种程度的准确性进行预测。”

第二步是开发与这些核心心理档案产生共鸣的信息。事实上,最新研究已经发现GPT可以开发针对人们个性、价值观和动机的定制广告,这些广告对设计它们的人尤其有说服力。例如,简单地要求它生成一条“针对一个脚踏实地且传统的人”的广告,结果会是“该产品不会花太多钱,但仍能完成任务”,这种论点对目标人群的个性来说更具说服力。

这些系统将变得越来越复杂,将深度定制应用于视觉深度伪造操纵语音模式动态人机对话。那么,如何保护人们免受个性化力量的侵害?

从消费者角度看,值得意识到在线个性化沟通正在发生。当某事感觉像是专门为你定制时,它实际上可能就是。即使你觉得在网上没有透露太多个人信息,你仍然通过点击、访问和搜索的内容留下细微线索。你甚至可能在未仔细阅读条款和条件的情况下,无意中授权广告商使用这些信息。盘点你的在线行为并使用工具如VPN可以帮助你抵御针对你独特心理的定制信息。

但消费者的负担并非唯一。平台和政策制定者应考虑对个性化内容进行标签并提供信息,说明为何特定信息被传递给特定人。研究显示,当人们知道所使用的策略时,他们更能抵抗影响。还应明确规范可用于个性化内容的数据类型,限制深度定制的可能深度。尽管人们通常在线接受个性化内容,但他们担心数据隐私,这两者之间的界限应被尊重。

即使有这些保护措施,错误的人手中哪怕最小的沟通优势在大规模部署时也令人担忧。市场推荐与购物历史相似的人购买的产品是一回事,但遇到一个伪装成计算机的系统,不知情地解构了你的灵魂并将它编织进虚假信息则是另一回事。任何沟通工具都可以用于善或恶,但现在是时候认真讨论AI在沟通中的伦理使用政策了,以免这些工具变得过于复杂而难以控制。

Comments

No comments yet. Why don’t you start the discussion?

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注