生成式人工智能在强制性企业叙事报告中的应用:基于“报告链”视角的风险审视

《Cambridge Forum on AI: Law and Governance》:Using generative artificial intelligence in corporate narrative reporting: Understanding risks within the lens of a “reporting chain” approach

【字体: 时间:2025年12月12日 来源:Cambridge Forum on AI: Law and Governance

编辑推荐:

  本文聚焦于生成式人工智能(Gen AI)在强制性企业报告(特别是叙事性及ESG报告)制作中的应用趋势及其伴随的法律与监管风险。研究创新性地提出“报告链”(reporting chain)分析框架,指出风险不仅存在于企业层面,更延伸至投资者、金融中介、监管机构等报告使用方,其自身的Gen AI应用行为会重塑和放大企业层面的风险,可能引发分析同质化、系统性错误放大等市场稳定问题。文章为企业层面的风险治理提供了框架,并特别为证券与金融监管机构提出了前瞻性的监管建议,对构建跨领域、多层次的AI治理体系具有重要意义。

  
随着生成式人工智能(Generative Artificial Intelligence, Gen AI)浪潮席卷各行各业,企业运营的诸多环节正迎来深刻的变革。在企业必须履行的强制性报告领域,特别是那些包含大量文字叙述、涉及环境、社会和治理(Environmental, Social and Governance, ESG)因素的非财务报告,Gen AI凭借其强大的数据处理、模式识别和内容生成能力,展现出巨大的应用潜力。它有望将企业从处理海量内外部数据、并将其整合成连贯叙事报告的繁重合规任务中解放出来。然而,机遇与风险并存。强制性报告并非儿戏,其中的任何缺陷都可能引发投资者的民事诉讼、监管机构的严厉处罚以及难以挽回的声誉损失。那么,一个核心问题随之产生:在风险如此明确的领域,企业能否放心地拥抱Gen AI?这项发表在《Cambridge Forum on AI: Law and Governance》上的研究,由伦敦大学学院的Iris H-Y Chiu教授执笔,不仅深入剖析了企业层面面临的风险,更独具匠心地提出了“报告链”(reporting chain)这一全新视角,揭示了当报告的接收者和使用者——包括机构投资者、分析师、评级机构、监管机构乃至社交媒体上的金融影响者(finfluencers)——也普遍采用Gen AI时,风险的性质和范围将发生怎样深刻的变化,从而为理解和治理这一复杂问题提供了更全面、更具系统性的蓝图。
为了开展这项研究,作者主要采用了文献综述与理论构建的方法。研究系统地梳理和评述了近年来关于Gen AI在金融、会计、法律及企业报告领域应用的广泛实证文献与行业报告,从而归纳出Gen AI在数据组织、结构化、叙事生成和预测分析方面的能力与已知风险(如“幻觉”hallucinations现象)。在此基础上,研究并未停留在传统的企业中心主义(firm-centric)风险分析,而是创新性地构建了“报告链”理论分析框架,将企业、投资者、金融中介、监管机构和新兴的金融影响者视为一个相互关联的生态系统,理论推演了Gen AI在该链式结构中被共同使用时可能产生的系统性影响,如分析同质化(analytical homogenisation)和模型风险集中度(model risk concentration)。最后,研究基于此理论分析,为企业和监管机构(特别是证券与金融监管机构)提出了具有针对性的风险治理和政策建议。
研究结果
1. 叙事性企业报告的发展趋势
研究表明,企业强制性报告的范围,尤其是叙事性非财务报告,在欧盟和英国等地经历了显著扩张。这不仅是公司对股东问责的延伸,更是对更广泛利益相关方和监管期望的回应。从最初侧重于财务重要性的管理层讨论与分析(Management Discussion and Analysis, MD&A),发展到如今涵盖商业策略、风险、气候变化、供应链人权尽职调查(如英国《现代奴隶制法案》要求)、薪酬差距、董事会考虑利益相关方的第172条声明等多方面内容。特别是欧盟《企业可持续发展报告指令》(Corporate Sustainability Reporting Directive, CSRD)和《企业可持续发展尽职调查指令》(Corporate Sustainability Due Diligence Directive, CSDDD)的推行,明确要求企业进行双重重要性(double materiality)的披露和尽职调查,极大地增加了报告的数据复杂性和分析需求,这为能够高效处理复杂信息的Gen AI提供了用武之地。
2. Gen AI与叙事性企业报告
研究指出,Gen AI在帮助企业完成强制性报告方面展现出三重优势。首先,在数据组织与结构化方面,Gen AI能够高效处理企业内部关于利益相关方关系、环境绩效等的原始数据,并映射外部公开信息,为尽职调查和报告生成提供结构化的信息基础。其次,在报告生成方面,Gen AI不仅能分析结构化数据,还能以清晰、有逻辑的叙事形式呈现分析结果,其生成文本的质量在清晰度、内容显著性和可读性方面甚至可媲美或超越人类作者,可作为高质量的“初稿”。第三,在风险预测与管理方面,Gen AI能够基于企业信息预测ESG风险热点,并可能提出风险缓释的行动建议,从而辅助企业进行前瞻性的风险管理。
3. 基于企业层面的Gen AI风险管理方法
研究识别了企业使用Gen AI制作报告时面临的三大核心风险:因输出不实信息(幻觉)导致的误述法律风险、因训练数据或输出内容可能侵犯第三方权益导致的版权侵权风险、以及企业敏感信息在使用公开Gen AI模型时可能泄露的隐私风险。为应对这些风险,企业需采取多层次的风险管理策略。这包括董事会层面确立战略性的AI风险治理框架,高管层负责设计具体的操作流程,以及在操作层面加强对员工的培训以培养其批判性使用Gen AI的能力,避免自动化偏见(automation bias)。此外,企业可以考虑通过谈判获得保障数据隐私的订阅服务,或开发定制化的、小规模的专用机器学习模型,以更好地控制隐私和版权风险。
4. 基于报告链方法的Gen AI风险管理
本研究最具创新性的部分在于引入了“报告链”视角。报告链是指使用企业报告的整个实体生态,包括机构投资者、资产管理人、证券分析师、评级机构、代理顾问、监管机构以及利用Gen AI分析公司信息并影响公众的金融影响者。研究发现,当报告链上的众多实体都倾向于使用少数几个主流的、公开的Gen AI模型(如ChatGPT、Claude等)来处理和分析企业报告时,会产生两种潜在的重要系统性影响。一种是“分析同质化”,即不同目的的用户可能因使用相同模型而对公司风险和价值得出趋同的判断,这可能导致对某个企业报告中存在的Gen AI“幻觉”或错误形成系统性盲点,并在链上被放大和延续,最终可能引发跨行业的、突然性的证券价格修正,威胁市场稳定。另一种可能是,某个Gen AI模型若能更有效地识别报告中的缺陷,则会增强市场纪律和监管干预的有效性,形成良性循环。研究指出,鉴于Gen AI开发行业高度集中,分析同质化和模型风险集中的可能性不容忽视。
结论与讨论
本研究深刻指出,Gen AI在强制性企业报告中的应用所带来的风险,不能仅从单个企业的视角来审视,而必须置于更广阔的“报告链”背景下理解。企业层面的风险治理是基础,但当整个信息传递和使用的链条都浸润在Gen AI之中时,风险呈现出行业性、市场性和系统性的新维度。针对这些风险,文章为证券和金融监管机构提出了具体的政策建议。首先,应要求企业披露其在报告中使用Gen AI的情况、所用模型及治理措施,这为监管监督提供了基础。其次,监管机构应主动监测其管辖下的报告链实体(如资产管理公司、券商等)对Gen AI的使用情况,评估模型集中度风险,并抽样检查其输出,以防范分析同质化带来的系统性风险。最后,文章探讨了在AI治理背景下,针对Gen AI风险的监管需要一种创新的混合治理模式,可能涉及跨领域、跨层级监管机构的协同合作,以及软法与硬法相结合的治理工具,以应对快速发展的技术带来的动态挑战。总之,这项研究不仅为企业和监管机构应对Gen AI在企业报告领域带来的机遇与挑战提供了清晰的路线图,更强调了在人工智能时代,构建一个能够理解并管理复杂技术生态系统风险的、敏捷而全面的治理框架的迫切性和重要性。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号