
-
生物通官微
陪你抓住生命科技
跳动的脉搏
知识门户中的人工智能:高校与出版机构的制度政策与混合配置研究
【字体: 大 中 小 】 时间:2025年08月12日 来源:Frontiers in Computer Science 2.7
编辑推荐:
这篇综述深入探讨了学术机构如何通过边界工作(boundary work)和行动者网络理论(actor-network theory)来规范人工智能(AI)在知识生产中的应用。研究聚焦16所顶尖高校和12家主流出版商的AI政策,提出"双重黑箱化(dual black-boxing)"和"合法性依赖型混合行动者(legitimacy-dependent hybrid actors)"等创新概念,揭示了学术机构在应对技术颠覆时如何通过透明度要求、过程导向边界和灵活授权机制来平衡技术创新与学术价值保护。
知识门户中的人工智能:制度政策与混合配置
1 引言
近期研究显示人工智能(AI)在学术环境中的采用率快速攀升,86%的学生已在学习中使用AI,54%的研究者将AI应用于翻译、校对等专业活动。然而63%的研究者认为缺乏明确指南是主要障碍,这凸显了建立AI治理框架的紧迫性。研究采用边界工作理论和行动者网络方法,提出双重黑箱化概念——既指AI算法的内部不透明性,也包含使用模式的可视化缺失;同时提出合法性依赖型混合行动者概念,强调相同AI协作模式可能因披露程度而获得不同合法性认定。
2 材料与方法
研究对16所英美顶尖高校(包括常春藤盟校和THE排名前八的英国院校)和12家主流出版商(如Elsevier、Springer Nature等)的AI政策进行定性内容分析。采用迭代编码策略,先基于概念框架进行演绎编码,再通过归纳编码识别子主题。
3 高校视角的AI治理
3.1 边界工作策略
高校采用三类边界划定策略:
分类边界:如UCL设立三级使用标准(禁止/辅助/整合)
权限分配:康奈尔大学等将决策权下放至教师层面
功能区分:允许AI用于头脑风暴(爱丁堡大学)但限制最终产出
透明度机制呈现"使用可视化优先"特征:
强制声明要求(帝国理工学院需注明AI工具版本及使用场景)
验证责任分配(耶鲁大学要求人工核查AI输出的偏见)
但存在内部黑箱穿透不足的问题,如普林斯顿政策仅泛泛提醒"注意AI错误"而缺乏具体方法。
3.2 合法性混合体
高校认可四类混合行动者:
AI辅助研究者(牛津大学允许用于文献综述支持)
AI增强写作者(爱丁堡大学批准用于写作框架构建)
AI赋能翻译者(牛津允许跨语言文本转换)
AI支持程序员(用于代码辅助)
合法性取决于三大因素:人类主导性(曼彻斯特大学禁止纯AI生成内容)、贡献可视化程度、以及AI介入阶段(偏好早期过程支持)。
4 出版机构的AI治理
4.1 差异化边界
出版商建立更严格的产出控制:
作者身份排除(Elsevier声明AI不得列为作者)
图像生成限制(Taylor & Francis禁止AI创建研究图像)
角色专属规范(禁止审稿人使用AI评估论文)
4.2 透明度创新
部分出版商突破常规披露:
SAGE要求提交AI提示词与生成结果的完整记录
IEEE规定在致谢部分标注AI贡献段落
但同样面临训练数据溯源等未解难题。
4.3 受限的混合体
出版界仅认可三类配置:
AI语言编辑(Springer Nature允许语法修正)
AI研究助手(SAGE批准用于克服写作障碍)
AI方法专家(Elsevier特许在生物医学成像中使用)
其合法性框架强调人类终责(MDPI要求作者对AI产出负全责)和过程监督。
5 比较分析
高校呈现"教育适应性"特征:
分布式决策架构
侧重学习过程支持
出版商体现"记录守护者"取向:
集中式编辑控制
强调学术记录完整性
两者共同点是都采用"选择性渗透"策略——通过披露机制使AI贡献可见,同时维持人类在关键节点的权威。
6 讨论与展望
研究发现学术机构正通过传统治理框架的适应性扩展(而非颠覆)来整合AI,这种"监督式混合"模式具有三个显著特征:
透明度替代绝对禁止成为核心机制
过程贡献比最终产出更易获得合法性
人类验证责任与AI技术复杂度存在张力
未来研究需拓展到非精英院校,并关注政策与实践的落差——正如剑桥大学政策坦言:"为快速演进的技术制定政策极具挑战性"。
生物通微信公众号
知名企业招聘