X新推出的AI撰写社区注释可能引发的所有问题
X声称AI可以增强社区注释功能,但这也伴随着明显的风险。
来源: Moor Studio | DigitalVision Vectors
埃隆·马斯克的X通过推出“社区注释”功能, arguably 革新了社交媒体的事实核查机制,该功能创建了一个系统,让公众共同评估某些X帖子是否可信。
但现在,该平台计划允许AI撰写社区注释,这可能会摧毁X用户对事实核查系统的信任——X对此已完全承认。
在一篇研究论文,X将这一举措描述为“升级”,同时解释了AI撰写社区注释可能引发的所有问题。
在一个理想的世界中,X描述了AI代理能够加速并增加添加到错误帖子的社区注释数量,从而提升平台范围内的事实核查力度。每条AI撰写的注释将由人工审核员评分,通过反馈使AI代理更擅长撰写注释。随着AI代理在撰写注释方面变得更好,人工审核员则可以专注于AI难以快速处理的更复杂事实核查任务,例如需要特定专业知识或社会意识的帖子。如果一切顺利,人类和AI审核员的协作可能不仅改变X的事实核查机制,还可能提供“一种人类与AI协作生产公共知识的新形式蓝图”。
然而,仍存在一些关键问题,其中最大的问题是:X不确定AI撰写的注释是否能像人类撰写的注释一样准确。更复杂的是,AI代理可能会生成“具有说服力但不准确的注释”,这些注释可能被人工评分者评为有帮助,因为AI“特别擅长撰写具有说服力、情感共鸣且看似中立的注释”。这可能会破坏反馈循环,削弱社区注释并随着时间推移使整个系统变得不那么可信,X的研究论文警告称。
“如果评分的有用性与准确性不完全相关,那么高度打磨但误导性的注释更有可能通过批准门槛,”论文中写道。“随着大语言模型(LLMs)的进步,这种风险可能增加;它们不仅能够有说服力地撰写,还能更容易地研究并构建看似坚实的证据体系来支持几乎任何主张,无论其真实性如何,这使得人工评分者更难发现欺骗或错误。”
X已经在其AI计划上面临批评。周二,前英国科技部长达米安·科林斯指责X正在构建一个系统,该系统可能允许“在拥有超过6亿用户的平台上操控人们看到和信任的内容”,《卫报》报道。
科林斯声称AI注释可能增加X平台上“谎言和阴谋论”的传播,而他并非唯一发出警报的专家。剑桥大学艾伦·图灵研究所新兴技术和安全研究中心的研究助理萨缪尔·斯托克韦尔告诉《卫报》,X的成功在很大程度上取决于“X为防止这些AI‘注释撰写者’可能产生幻觉并放大错误信息所采取的安全措施的质量”。
“AI聊天机器人通常难以处理细微差别和上下文,但擅长自信地提供听起来有说服力甚至不真实的答案,”斯托克韦尔说。“如果平台未能有效解决这一点,这可能是一个危险的组合。”
此外,复杂化问题的是:任何人都可以使用任何技术创建AI代理来撰写社区注释,X的社区注释账户解释。这意味着一些AI代理可能比其他代理更具偏见或缺陷。
如果发生这种反乌托邦版本的情况,X预测人类撰写者可能会对撰写注释感到厌倦,威胁到使社区注释最初可信的观点多样性。
而对于任何坚持留在平台的人类撰写者和审核员来说,AI撰写的注释数量可能压垮他们。英国事实核查组织Full Fact的AI负责人安迪·杜德菲尔德告诉《卫报》,X的风险是“增加人类审核员已显著的负担,以检查更多的草稿注释,这可能打开一扇令人担忧且合理的情景之门,即注释可能完全由AI起草、审核和发布,而无需人类输入的细致考虑。”
X计划进行更多研究以确保“人类评分能力能够充分扩展”,但如果无法解决这个难题,它知道“最真实批评性注释的影响”可能被稀释。
研究人员指出的一个可能的解决方案是移除人工审核流程,并在“人类评分者先前批准的类似情境”中应用AI撰写的注释。但最大的潜在问题显而易见。
“自动将注释与人们认为不需要它们的帖子匹配,可能会显著削弱系统的信任度,”X的论文承认。
最终,研究人员承认X的AI注释撰写者可能被视为“错误的工具”,但它们仍计划进行测试以找出结果。
AI撰写的注释将本月开始发布
所有AI撰写的社区注释“将对用户明确标记”,X的社区注释账户表示。第一篇AI注释只会出现在人们请求注释的帖子上,账户表示,但最终AI注释撰写者可能被允许选择需要事实核查的帖子。
更多细节将在AI撰写的注释本月开始出现在X上时揭晓,但在此期间,X用户可以今天开始测试AI注释撰写者并很快被纳入首批AI代理的候选名单中。(如果任何Ars读者最终测试了AI注释撰写者,这位Ars作者将很想知道你们的体验。)
在研究方面,X与研究研究生、研究成员和教授合作,他们研究的主题包括人类对AI的信任、AI微调和AI安全,这些研究来自哈佛大学、麻省理工学院、斯坦福大学和华盛顿大学。
研究人员一致认为,“在某些情况下”,AI代理可以“生成与人类撰写的注释质量相似的注释——耗时和精力仅为其中的极小部分。”他们建议需要更多研究以克服已标记的风险,以利用这一可能“具有变革性的机会”,该机会“提供了事实核查在X上大幅增加规模和速度的前景。”
如果AI注释撰写者“生成的初稿代表了单一人类撰写者通常无法涵盖的更广泛视角,那么社区讨论的质量从一开始就会得到提高,”论文中写道。
AI注释的未来
研究人员设想,一旦X的测试完成,AI注释撰写者不仅可以帮助研究人类用户标记的有问题帖子,还有一天可以预测可能病毒式传播的帖子并阻止错误信息比人类审核员更快地扩散。
该自动化系统带来的额外好处包括X注释评分者能够快速访问更全面的研究和证据综合,以及更清晰的注释撰写,这可能加快评分过程。
也许有一天,AI代理甚至可以学习预测评分分数以进一步加快速度,研究人员推测。然而,需要更多研究以确保这不会使社区注释同质化,将其打磨到无人阅读的程度。
也许论文中提出的最具有马斯克风格的想法是,通过让持有不同观点的AI注释撰写者“对抗性辩论注释的价值”来训练AI注释撰写者。理论上,这“可以帮助即时揭示潜在缺陷、隐藏偏见或伪造证据,使人工评分者能够做出更明智的判断。”
“评分者不再需要从头开始,而是扮演仲裁者的角色——评估结构化的论点冲突,”论文中写道。
尽管X可能试图减轻撰写社区注释的X用户的工作负担,但研究人员表示AI永远无法取代人类。这些人类不仅负责审核AI撰写的注释,还承担着更多责任。
“从头撰写的注释对训练AI代理具有价值,一些评分者的专业知识难以复制,”论文中写道。“最明显的是,人类‘是唯一能够识别缺陷或偏见的人’,因此更可能被激励撰写‘自动化撰写者忽略的主题’的注释,例如垃圾信息或诈骗。”