生成式人工智能驱动的改进型抽象交叉注意力序列到序列模型在印地语文本摘要中的应用研究

【字体: 时间:2025年06月21日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  针对印地语抽象摘要任务中存在的语法错误、泛化能力差及资源稀缺等问题,研究人员提出融合生成式人工智能(GAI)与改进型抽象交叉注意力(MAC)的GAI-MACSeqRT模型。该模型通过T5Transformer架构和全局代理(Global Surrogate)方法生成流畅摘要,在BLEU-0.71和METEOR-0.73指标上超越现有技术,为低资源语言NLP处理提供新范式。

  

在信息爆炸时代,自动文本摘要(ATS)技术成为处理海量文本的关键工具。然而对于印地语等低资源语言,现有方法面临三大挑战:复杂语法结构导致语义失真,标注数据稀缺限制模型训练,以及传统序列到序列(seq2seq)模型存在词汇表外(OOV)词汇处理难题。更棘手的是,当前主流技术如T5Transformer虽在英语摘要表现优异,却因依赖标注数据而难以适应印地语的形态学特性,生成的摘要常出现语法错误或信息冗余。

针对这些痛点,研究人员开发了GAI-MACSeqRT模型,其核心创新在于将生成式人工智能(GAI)与改进型抽象交叉注意力(MAC)机制相结合。该模型采用Kaggle印地语短摘要语料库和故事数据集,通过多目标图嵌入预处理增强特征表达。MAC注意力借鉴T5Transformer架构,能动态捕捉输入序列的跨片段关联;而GAI层则运用全局代理(Global Surrogate)方法修正语法错误,使生成的摘要兼具准确性与可读性。

关键技术包括:1)基于T5的MAC注意力机制,通过解码器端的辅助聚焦切割技术提升长程依赖建模;2)序列到序列双向编码器表示(SeqRT)框架,整合生成式AI的语义推理能力;3)多目标损失函数优化,平衡摘要的连贯性(Coherence)与信息密度。

研究结果显示:

  1. 性能对比:在BLEU和METEOR指标上分别达到0.71和0.73,显著优于Pegasus、RoBERTa等基线模型,证明MAC注意力能有效解决印地语复杂句式带来的信息丢失问题。
  2. 消融实验:移除GAI组件使语法错误率上升37%,验证全局代理方法对低资源语言的重要性。
  3. 计算效率:相比传统BiLSTM架构,推理速度提升2.3倍,得益于Transformer的并行计算优势。

讨论部分指出,该研究的突破性体现在三方面:首先,MAC注意力机制首次实现印地语深层语义关系的动态建模;其次,生成式AI的引入开创了无监督语法校正新思路;最后,模型在Kaggle和自建数据集上的稳定表现,证实其具备跨领域适应能力。不过作者也承认,对于方言混杂文本的处理仍有改进空间。

这项发表于《Engineering Applications of Artificial Intelligence》的成果,不仅为印地语摘要提供实用工具,更开创性地证明生成式AI与注意力机制的协同效应。其技术路线可扩展至其他低资源语言处理任务,对推动语言平等具有重要意义。未来工作将探索多模态输入和方言自适应机制,进一步提升模型的普适性。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号