人工智能监管沙盒的边界探索:《人工智能法案》下的灵活性与现实世界测试
《Cambridge Forum on AI: Law and Governance》:Exploring the boundaries of AI regulatory sandboxes under the AI Act: Flexibility and real-world testing
【字体:
大
中
小
】
时间:2025年12月11日
来源:Cambridge Forum on AI: Law and Governance
编辑推荐:
本文针对《人工智能法案》中AI监管沙盒和现实条件测试机制存在的模糊性与复杂性,探讨了二者在提供监管灵活性、法律指导和实验环境方面的功能差异与交互关系。研究发现,沙盒更侧重于监管对话,而现实测试则旨在消除法律壁垒;研究揭示了条款间的不一致,并指出需欧盟委员会进一步澄清以确保有效实施。
随着人工智能(AI)技术的飞速发展,如何在鼓励创新的同时确保其安全、可信并符合伦理规范,成为全球监管机构面临的重大挑战。欧盟率先通过了具有里程碑意义的《人工智能法案》(AI Act),试图通过基于风险的方法来构建AI治理框架。在这一宏大背景下,该法案引入了两项旨在促进创新的实验性工具——AI监管沙盒(AI regulatory sandboxes)和现实条件测试(testing in real-world conditions)。然而,这些工具的具体功能、适用范围以及它们之间的相互关系,在法案条文中却显得复杂且充满模糊之处。Nathan Genicot与Thiago Guimaraes Moraes的研究论文《Exploring the boundaries of AI regulatory sandboxes under the AI Act: Flexibility and real-world testing》正是为了厘清这些关键问题而展开。
为了深入探究《人工智能法案》下监管沙盒与现实条件测试的边界,研究人员采用了严谨的法律文本分析方法。他们系统性地梳理和对比了法案中相关条款(特别是第57条关于监管沙盒和第60条关于现实条件测试),并结合了欧盟其他法规(如《通用数据保护条例》GDPR)以及成员国(如西班牙)的先期实践案例进行分析。研究还借鉴了全球范围内(如金融、数据保护领域)已有监管沙盒的运作经验,通过比较研究来揭示AI监管沙盒的潜在模式与挑战。
监管沙盒:在监管灵活性、法律指导和测试环境之间
监管沙盒通常被定义为一个受控环境,企业可以在监管机构的指导下测试创新产品,并可能获得监管要求的放宽。其核心特征可归纳为三点:监管灵活性(如临时豁免)、接近现实世界的测试环境以及监管机构提供的合规指导。然而,论文指出,并非所有被称为“沙盒”的机制都同时具备这三项特征。例如,在金融领域,沙盒常允许放宽某些规则以方便测试;而在数据保护领域(如法国国家信息与自由委员会CNIL的沙盒),由于欧盟数据法不允许减损,其沙盒主要提供法律指导而非监管豁免。这表明“监管沙盒”一词涵盖的实践具有多样性。欧洲委员会也强调,减损并非沙盒的必要元素,而监管机构的参与才是核心。
《人工智能法案》下AI监管沙盒的监管灵活性
《人工智能法案》采用基于风险的方法,对高风险AI系统施加了严格的事前合规评估(conformity assessment)义务。然而,与需要事前行政许可的行业(如医药)不同,AI法案主要依赖供应商的自我评估(self-assessment),这影响了沙盒中“监管灵活性”的表现形式。
AI监管沙盒被定义为“由主管当局设立的具体且受控的框架”,允许AI系统供应商或潜在供应商在监管监督下,根据沙盒计划,在有限时间内开发、训练、验证和测试创新型AI系统。论文分析发现,AI监管沙盒的核心价值在于为参与者提供法律指导和监管对话。尽管法案第57条第12款规定,若参与者善意遵守沙盒计划并遵循监管指导,可免于行政处罚,但由于法案的大部分义务仅在AI系统“投放市场或投入使用”(placed on the market or put into service)后才生效,而沙盒测试处于此前阶段,因此该豁免条款在实验室环境测试中的实际效果存疑。此外,该条款试图将豁免范围扩展至违反其他欧盟或成员国法律(如数据保护法)的情形,其合法性可能面临挑战,因为《人工智能法案》无权限制其他法律下监管机构的执法权。
论文还指出,参与沙盒并不能免除参与者对第三方造成损害的民事责任,这可能会降低开发者参与沙盒的意愿。对于数据处理,法案第59条为沙盒内出于重大公共利益目的开发特定AI系统,处理为其他目的合法收集的个人数据提供了有限例外,但需满足严格条件。
区分现实世界测试:沙盒内与沙盒外
现实条件测试(TRWC)被定义为“在实验室或其他模拟环境之外,为其预期目的临时测试AI系统”,且不被视为投放市场或投入使用。这实质上为测试提供了一种监管灵活性,因为供应商无需在测试前完成合规评估。然而,分析揭示了法案条款间的复杂性。
论文通过对比分析指出,在沙盒内进行TRWC,需同时遵守关于沙盒的第57-59条和关于TRWC的第60-61条及第76条,这造成了规则重叠。两种路径的启动方式和监管互动也存在显著差异:沙盒内的TRWC由主管当局设立,并必须邀请其他相关监管机构(如数据保护机构DPA)参与,强调协作与指导;而沙盒外的TRWC由(潜在)供应商向市场监督机构申请,无需强制邀请其他监管机构,监管角色更侧重于监督与检查。
在透明度方面,沙盒要求主管当局提交年度报告(需公开)和退出报告(经参与者同意可公开),旨在促进监管学习(regulatory learning)和公众监督;而沙盒外的TRWC仅要求在欧盟高风险AI系统数据库进行登记(部分情况除外),透明度较低。测试期限也不同,沙盒内无固定期限,较为灵活;沙盒外TRWC最长6个月,可续期一次,这可能不适用于某些长期实验项目(如智慧城市测试平台)。
论文强调,无论是否进行现实测试,获取测试对象的自由给予的知情同意(informed consent)都应被视为良好实践。虽然沙盒外的TRWC不强制要求数据保护机构(DPA)参与(除非其被指定为市场监督机构),但在处理个人数据时,DPA的介入对于加强数据保护监督至关重要,但这可能加重DPA的负担。
结论与讨论
本研究深入剖析了《人工智能法案》框架下AI监管沙盒和现实条件测试机制的功能与界限。核心结论是,AI监管沙盒主要旨在提供一个法律指导和监管对话的平台,其提供的监管灵活性(如行政处罚豁免)在实际操作中,尤其是在非现实世界的实验室测试中,效果可能有限。相比之下,现实条件测试机制则更侧重于通过将测试界定为“上市前阶段”来消除法律障碍,从而加速市场准入。
研究揭示了法案条款间存在的不一致和模糊之处,特别是关于沙盒内现实条件测试需同时满足两套规则的要求,以及将行政处罚豁免扩展至其他法律领域的合法性问题。此外,沙盒外现实条件测试在监管协作、透明度和测试期限方面的设计,可能使其更倾向于成为一种快速的“上市前步骤”,而非深入的监管学习过程,这可能会削弱监管机构通过沙盒进行深度参与的吸引力。
因此,论文指出,欧盟委员会在制定相关实施法案(implementing acts)时,亟需澄清这些模糊地带,解决条款间的冲突,以确保AI监管沙盒和现实条件测试能够有效实施,真正起到在促进创新的同时保障安全、健康和基本权利的作用。这项研究不仅为理解《人工智能法案》中的关键创新工具提供了清晰的路线图,也为政策制定者完善相关细则提供了重要的参考依据。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号