虚假信息困境:基于《欧洲人权公约》的DSA框架下政治讽刺内容审核研究
《European Journal of Risk Regulation》:The Disinformation Dilemma: Moderating Political Satire Under the DSA in Light of the European Convention on Human Rights
【字体:
大
中
小
】
时间:2025年11月19日
来源:European Journal of Risk Regulation 2.3
编辑推荐:
本文探讨了在《数字服务法》(DSA)要求下,大型在线平台(VLOPs)审核政治讽刺内容时面临的困境。研究通过分析欧洲人权法院(ECtHR)判例,揭示了政治讽刺在《欧洲人权公约》(ECHR)第10条下的强保护特性,指出当前监管框架对"讽刺漏洞"的忽视。结果表明,需建立兼顾言论自由保护与风险防控的精细化审核机制,为平台内容治理提供重要法理依据。
在数字化浪潮席卷全球的今天,社交媒体已成为政治表达的重要战场。政治讽刺这种古老的批判艺术,如今以表情包、深度伪造(deepfakes)等新形态在网络上病毒式传播,既活跃了公共讨论,也给别有用心者提供了可乘之机。当讽刺的外衣包裹着虚假信息的内核,大型在线平台(VLOPs)在审核内容时陷入两难:过度审核可能压制言论自由,审核不足又可能放任虚假信息侵蚀民主根基。
这一困境在欧盟《数字服务法》(Digital Services Act, DSA)实施后愈发凸显。该法规要求VLOPs评估和缓解平台上的系统性风险,包括虚假信息对民主进程的威胁。然而,具有讽刺意味的是,欧盟委员会2018年关于打击虚假信息的通报明确将讽刺和 parody(滑稽模仿)排除在虚假信息定义之外。这种非黑即白的划分,让平台在审核兼具讽刺性与误导性的内容时无所适从。
瑞典于默奥大学法学院研究员Therese Enarsson在《European Journal of Risk Regulation》发表的研究,正是切入这一数字治理的核心矛盾。文章通过剖析欧洲人权法院(ECtHR)的判例法理,为DSA框架下的政治讽刺内容审核提供了亟需的法理坐标。
研究方法上,作者主要采用定性法律分析方法,重点解读ECtHR关于《欧洲人权公约》第10条(表达自由权)的判例,特别是涉及政治讽刺的典型案例。通过分析Vereinigung Bildender Künstler诉奥地利案、Yevstifeyev等人诉俄罗斯案等关键判决,梳理出ECtHR界定和保护政治讽刺的法律标准。同时,研究对比分析了DSA及其相关行为准则对虚假信息的定义框架,探讨了人工与算法审核系统在识别讽刺内容时的技术挑战。
研究表明,讽刺与虚假信息在表现形式上存在高度相似性。无论是COVID-19疫苗辩论中的误导性表情包,还是选举期间影响选民的人工智能生成内容(AI-generated content),都使用夸张、模仿甚至扭曲现实的手法传播信息。深度伪造技术(deepfakes)的兴起更放大了这种风险,它能以假乱真地伪造政治人物的言行。虽然《人工智能法》(AI Act)要求标注人工智能生成内容,但这些标签在内容传播过程中极易丢失,造成误导。
关键在于意图的区分:讽刺旨在娱乐和引发思考,而虚假信息则以欺骗和造成危害为目的。然而,这种意图区分对审核系统构成巨大挑战。算法审核难以理解反讽、文化语境等微妙之处,而人工审核虽能把握意图却难以应对海量内容。根据DSA透明度中心数据,2025年上半年VLOPs的审核决定中有52%完全自动化,凸显了提升算法识别能力的紧迫性。
DSA并未明确定义虚假信息,但通过《强化虚假信息行为准则》(the Strengthened Code of Practice on Disinformation)将虚假信息界定为以造成危害为目的传播虚假或误导性信息。该准则明确排除讽刺和parody,与DSA第34条和35条要求的系统性风险评估形成张力。
VLOPs需评估平台对基本权利、公民讨论和选举进程的潜在风险,并采取相应缓解措施。然而,这些要求存在模糊性:平台如何在保护言论自由的同时,有效识别以讽刺为伪装的恶意虚假信息?欧盟委员会对平台X的正式调查表明,审核资源的充足性和有效性已成为监管关注焦点。
ECtHR判例确立了政治讽刺在民主社会中的特殊地位。2007年Vereinigung Bildender Künstler诉奥地利案首次明确,讽刺作为一种艺术表达形式,通过夸张和扭曲现实引发思考,对其限制需特别谨慎。法院在Yevstifeyev等人诉俄罗斯案中进一步指出,选举背景下的讽刺性政治辩论应享有高度保护空间。
判断讽刺的关键要素包括:意图(是否以批评而非欺骗为目的)、内容是否明显夸张而不至于被误认为事实、以及语境是否显示其幽默本质。在Nikowitz和Verlagsgruppe News GmbH诉奥地利案中,ECtHR强调普通读者应能识别讽刺内容,驳回了国内法院关于"不专注读者"可能误解的论点。
然而,这种保护并非绝对。当讽刺与仇恨言论或暴力煽动结合时,如ZB诉法国案中涉及恐怖主义口号的情况,限制被视为正当。Sanchez诉法国案还表明,政治家对第三方在其社交页面发布的仇恨评论负有监管责任,即使这些评论出现在政治语境中。
研究表明,DSA的风险基础方法(risk-based approach)与ECtHR的权利基础方法存在根本差异。前者关注内容传播可能引发的系统性危害,后者侧重个案中表达权利与限制的平衡。这种差异导致在审核标准上产生张力:基于风险的审核更关注内容潜在危害,而权利基础的审核更注重创作者意图。
对于VLOPs而言,ECtHR的法理提供重要指引:首先,明显恶意或仇恨性质的"讽刺"内容可优先作为审核对象;其次,内容是否可被普通用户识别为讽刺应作为重要判断标准。在技术层面,需加强算法对语境和文化因素的理解,同时保障人工审核的关键作用。
研究指出,当前将讽刺完全排除在虚假信息定义外的做法过于简单化。在深度伪造等技术模糊真实与虚构界限的背景下,需建立更精细化的审核框架。这要求VLOPs投入足够资源,发展能区分良性讽刺与恶意虚假信息的能力。
政治讽刺与虚假信息的交织构成数字时代的核心治理挑战。完全排除讽刺的保护可能压制言论自由,而完全豁免则可能留下"讽刺漏洞"。有效的审核机制需兼顾ECHR对表达自由的强保护与DSA对系统性风险的防控要求。未来的监管澄清和平台实践应朝着识别恶意意图、评估内容可辨识度、平衡风险防控与权利保护的方向发展,从而在维护民主话语完整性的同时,保障讽刺这一民主重要元素的活力。
研究强调,在人工智能生成内容日益普及的背景下,单纯依赖内容标注不足以防范风险。VLOPs需建立更敏锐的语境感知能力,并将用户认知因素纳入风险评估。只有通过技术与法理的协同创新,才能构建既安全又自由的数字公共空间。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号