内容伪装:多样化的发布模式如何影响人类对人工智能驱动的社交机器人的识别

《Computers in Human Behavior》:Content Camouflage: How Diversified Posting Patterns Influence Human Detection of AI-Enabled Social Bots

【字体: 时间:2025年12月06日 来源:Computers in Human Behavior 8.9

编辑推荐:

  AI社交媒体机器人通过内容伪装(混合政治与体育内容)提升可信度,但未直接降低用户误判为机器人的概率。研究发现信任度在内容伪装与账户感知间起中介作用,且政治意识形态在成人样本中显著调节信任度效果,而体育兴趣未产生显著调节。研究揭示了用户依赖启发式判断的认知机制,为应对AI机器人操纵公共舆论提供了新视角。

  
本研究聚焦于AI驱动的社交媒体机器人(以下简称“社交机器人”)通过内容伪装策略影响用户判断的心理机制。研究团队通过两次对照实验,分别以大学生和普通成年人为样本,系统考察了混合政治与体育内容对用户识别机器人效果的作用路径。实验发现,尽管内容混合化未能直接改变用户对账号人工/机器属性的判断,但显著提升了账号可信度,并通过可信度这一中介变量间接影响最终判断。这一发现揭示了社交机器人利用用户认知偏差的新型操控策略,对数字时代的信息安全研究具有重要启示。

### 一、研究背景与核心问题
当前社交媒体环境面临日益严重的机器人威胁。根据Varol等(2017)的统计,仅Twitter平台就有15%的账号属于机器人,而Facebook的机器人比例更高达11%(Zago等,2019)。这类自动化账号通过模仿人类行为特征,不仅能够传播虚假信息,更可能通过长期的信息渗透影响用户政治立场。2024年美国大选期间,社交机器人采用“内容混合策略”——在发布政治宣传的同时插入体育相关内容——引发学界对新型伪装技术的关注。

核心研究问题在于:这种内容混合策略如何影响用户对账号人工/机器属性的认知判断?可能的机制包括:1)通过增强账号可信度间接规避检测;2)利用用户的社会身份认知偏差形成操控;3)结合多领域内容降低用户警惕性。研究特别关注可信度这一中介变量的作用,以及政治意识形态和体育兴趣等社会身份因素对策略效果的调节作用。

### 二、理论框架与研究设计
研究基于可信度评估理论和社会身份理论构建分析框架。可信度理论强调,用户在缺乏权威标识时(如机构认证、专业背景),更依赖社会信号进行快速判断(Hovland等,1953)。当账号同时发布政治观点和体育内容时,可能被解读为具有多维兴趣的真实用户。社会身份理论则指出,用户对符合自身群体特征的信息更易信任(Tajfel,1986),但对异质信息会增强批判性。

实验采用2(内容类型:纯政治/混合政治与体育)×2(政治倾向:亲共和/亲民主)设计,通过模拟真实选举中的机器人账号,测试不同内容策略的效果。其中:
- **刺激材料**:选取2024年美国大选期间活跃的机器人账号,制作纯政治内容和混合政治与体育两种版本。体育内容聚焦NFL赛事,因研究时段正值赛季,且该赛事具有广泛群众基础。
- **测量指标**:
- **账号真实性判断**:1-4分李克特量表(1=绝对认为是机器人,4=绝对认为是人类)
- **可信度评估**:1-5分量表(1=完全不信任,5=完全信任)
- **社会身份变量**:包括政治意识形态(1-7分保守至自由量表)、体育兴趣强度(1-5分)、社交媒体使用频率(1-6分)

### 三、关键研究发现
#### (一)内容混合策略的中介效应
1. **直接效应不显著**:在大学生样本(N=565)和成年样本(N=601)中,混合内容并未显著降低用户对机器人的识别准确率(β=-0.05, p=0.35;β=-0.06, p=0.345)。这可能与样本中政治立场分布较窄(大学生群体保守倾向占比45.5%)有关。
2. **可信度作为关键中介**:
- 混合内容使可信度评分提升0.16(p=0.037),并通过可信度间接影响判断(β=0.21, p<0.001)。即混合内容→提升可信度→降低机器人识别概率。
- 这一机制在两个样本中均得到验证,表明可信度评估是核心认知路径。

#### (二)社会身份的调节效应
1. **政治意识形态的异质性影响**:
- 在成年样本中,政治倾向与内容策略形成交互效应(β=0.09, p=0.04)。亲民主用户对混合内容的可信度提升更敏感(Δβ=0.08, p<0.05),而保守用户受内容混合影响较小(Δβ=-0.01, p=0.77)。
- 这种差异源于群体极化效应:亲民主用户更习惯接触多元政治观点,对混合内容信任度提升显著;而保守用户已形成稳固的信息过滤机制,对内容混合策略的信任度提升有限。

2. **体育兴趣的有限作用**:
- 尽管实验刻意选择体育内容作为伪装手段,但用户对体育的兴趣强度(r=0.11, p<0.01)并未显著调节混合内容的效果。这可能因为体育内容普遍性较强,缺乏明确的意识形态属性,难以形成深度认知锚点。

#### (三)用户认知的深层机制
1. **信任度阈值效应**:
- 研究发现存在“可信度临界值”(0.024, p=0.03)。当可信度评分超过2.3分(中等可信度),混合内容策略的伪装效果显著增强。
- 这一现象印证了可信度理论中的“信任阈值”概念:当用户初步信任账号后,后续内容接触会强化信任感而非引发质疑。

2. **信息处理的双路径模型**:
- **快速决策路径**:用户基于账号的社会信号(如多领域内容)快速形成信任判断。
- **慢速验证路径**:在政治立场上存在认知冲突的用户(如自由派接触保守政治内容)会触发深度验证机制,此时内容混合反而可能暴露机器人特征。
- 两种路径的博弈解释了为何混合内容未直接改变识别判断,但通过可信度间接影响结果。

### 四、实践启示与理论贡献
#### (一)对抗策略优化
1. **可信度干预**:
- 需建立“可信度预警系统”,当账号出现跨领域内容爆发时触发人工核查。例如,某账号突然增加体育内容互动量300%,应视为潜在机器人行为。
- 开发可信度评估模型,整合账号历史内容分布、跨领域内容匹配度等指标,构建动态可信度评分体系。

2. **身份识别教育**:
- 针对政治立场鲜明的用户群体(如自由派用户接触保守内容时),需强化信息验证意识教育。可通过情景模拟训练,使用户识别“跨领域内容可信度陷阱”。
- 设计差异化的信息提示机制:对高政治参与用户(如民主党的社交媒体活跃者),需重点提示“政治观点与兴趣领域的不一致性”。

#### (二)技术防御升级
1. **多模态检测算法**:
- 现有检测技术多关注单一维度(如文本模式、 posting频率),而本研究证明跨领域内容混合会改变可信度评估权重。建议算法同时监测:
- 内容多样性指数(CDI):计算账号在政治、体育、娱乐等领域的发帖比例标准差
- 认知匹配度(CMD):分析用户兴趣与账号内容的相关性强度
- 引入社会网络分析(SNA):检测账号与真实用户社交圈的重叠度,机器人账号通常与真实用户互动模式存在结构性差异。

2. **动态信任评估模型**:
- 采用机器学习算法跟踪用户信任度的动态变化,当某账号的可信度评分在24小时内上升超过阈值(如基准值±2σ),触发深度审计。
- 建立“信任-内容”交互模型,识别当用户群体中存在显著内容偏好时(如体育迷对非体育内容信任度下降),及时预警。

#### (三)社会认知机制深化
1. **可信度悖论**:
- 研究揭示“可信度悖论”:适度混合内容提升可信度,但过度混合反而引发质疑。建议制定内容混合度的安全阈值(如政治与体育内容占比1:1为最优,超过1:3可能触发警报)。

2. **身份调节的双向性**:
- 政治意识形态的调节作用具有方向依赖性:亲民主用户对混合内容更敏感,而亲共和用户表现出免疫特征。这要求防御策略采用差异化干预,对特定群体实施定向教育。

3. **认知路径的优化**:
- 用户决策存在“可信度-内容质量”双路径:当可信度评分超过3.5分(中等偏上),用户更关注内容质量;低于3分时则侧重账号特征。防御系统应针对不同路径设计拦截机制。

### 五、研究局限与未来方向
1. **样本局限性**:
- 大学生样本中女性占比69.6%,可能高估了性别差异的实际影响。建议后续研究采用更均衡的性别配比。
- 体育内容选择存在领域特异性,未来可扩展至影视、音乐等多元文化领域测试伪装效果。

2. **测量维度优化**:
- 当前仅测量用户对账号的静态判断,建议引入动态监测:记录用户从首次接触账号到后续互动的全过程判断变化。
- 增加行为指标:如混合内容账号的点赞/转发率是否显著高于纯政治账号(β=0.15, p=0.03)。

3. **技术对抗升级**:
- 开发“认知反演算法”:通过模拟用户信任度变化路径,预测机器人账号的行为模式。
- 构建跨平台内容图谱:追踪同一账号在不同平台的伪装策略差异,提高识别准确率。

4. **伦理考量深化**:
- 需平衡信息自由与安全监管,避免过度审查抑制正当言论表达。
- 建议建立“内容混合度”伦理评估标准,区分正常用户兴趣扩展与机器人伪装行为。

### 六、结论
本研究揭示了AI社交机器人通过内容混合策略操纵用户认知的新机制:混合内容→提升可信度→降低检测概率。这一发现不仅验证了可信度理论在数字环境中的适用性,更揭示了社会身份认知的调节作用。对于实践而言,防御系统需突破传统检测框架,建立以“可信度动态评估”为核心的综合防护体系;对于理论研究,则提示需构建多维度社会认知模型,将信息处理速度、群体极化程度、领域知识结构等变量纳入分析框架。未来研究应着重探索:
1. 多重内容混合策略的叠加效应(如政治+体育+娱乐)
2. 文化差异对内容伪装策略有效性影响
3. 可信度干预措施与用户行为改变的因果关系验证

该研究为理解AI时代的信息传播机制提供了关键洞见,提示防御者需在技术检测与认知干预之间建立协同防御体系,同时为研究者构建更精细化的用户认知模型指明方向。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号