
-
生物通官微
陪你抓住生命科技
跳动的脉搏
生成式人工智能任务委派分类体系(GAIDeT):科研出版中人类与AI协作的透明化框架
【字体: 大 中 小 】 时间:2025年08月11日 来源:Accountability in Research 2.8
编辑推荐:
为解决生成式人工智能(GAI)在科研应用中透明度不足、责任界定模糊的问题,来自国际团队的研究人员开发了GAIDeT分类体系。该研究通过迭代共识法构建了涵盖概念形成、文献综述等七大研究域的多层级任务委托框架,并配套开发GitHub声明生成工具,为规范AI参与科研提供了可量化的人类监督标准。
当ChatGPT等生成式人工智能(GAI)大举进军科研领域时,科研界正面临"AI代笔"带来的身份危机。这项研究如同给混沌的AI协作领域安装了导航系统——研究者们汲取CRediT作者贡献分类法和NIST人工智能应用分类法的精华,打造出全新的生成式AI任务委派分类体系(Generative AI Delegation Taxonomy, GAIDeT)。
就像实验室里的离心机能分离不同密度组分,GAIDeT将科研流程精细拆解为概念构思(conceptualization)、文献挖掘、方法设计等七大关键域,每个域又细分为宏观-微观双层结构。特别有趣的是,该框架创新性地引入了"人类监督温度计"——不同层级的任务对应从全自动到人工复核的梯度监管要求。
研究团队不仅搭建理论框架,更贴心地开发了GitHub版声明生成器(GAIDeT Declaration Generator)。这个数字小助手能引导学者像填写实验记录本那样,逐步勾选AI参与的具体环节,确保每个GPT-3生成的公式旁边都标注着对应的监督等级。
正如电泳图谱能直观显示DNA片段分布,这套系统让AI在科研中的贡献比例一目了然。未来,当学者们在《自然》期刊提交论文时,或许只需附上GAIDeT二维码,审稿人扫码就能看到AI助手在课题中的真实定位——是担任文献检索的"科研实习生",还是扮演需要严格监管的"算法共作者"。
生物通微信公众号
知名企业招聘