计算机技术与发展2023,Vol.33Issue(2) :187-194.DOI:10.3969/j.issn.1673-629X.2023.02.028

结合SS-GAN和BERT的文本分类模型

A Text Classification Model Based on Semi-supervised Generative Adversarial Networks and BERT

宛艳萍 闫思聪 于海阔 许敏聪
计算机技术与发展2023,Vol.33Issue(2) :187-194.DOI:10.3969/j.issn.1673-629X.2023.02.028

结合SS-GAN和BERT的文本分类模型

A Text Classification Model Based on Semi-supervised Generative Adversarial Networks and BERT

宛艳萍 1闫思聪 1于海阔 1许敏聪1
扫码查看

作者信息

  • 1. 河北工业大学 人工智能与数据科学学院,天津 300401
  • 折叠

摘要

BERT是近年来提出的一种大型的预训练语言模型,在文本分类任务中表现优异,但原始BERT模型需要大量标注数据来进行微调训练,且参数规模大、时间复杂度高.在许多真实场景中,大量的标注数据是不易获取的,而且模型参数规模过大不利于在真实场景的实际应用.为了解决这一问题,提出了一种基于半监督生成对抗网络的BERT改进模型GT-BERT.采用知识蒸馏的压缩方法将BERT模型进行压缩;引入半监督生成对抗网络的框架对BERT模型进行微调并选择最优生成器与判别器配置.在半监督生成对抗网络的框架下增加无标签数据集对模型进行微调,弥补了标注数据较少的缺点.在多个数据集上的实验结果表明,改进模型GT-BERT在文本分类任务中性能优异,可以有效利用原始模型不能使用的无标签数据,大大降低了模型对标注数据的需求,并且具有较低的模型参数规模与时间复杂度.

关键词

文本分类/半监督/BERT/生成对抗网络/模型压缩

引用本文复制引用

基金项目

河北省高等学校科学技术研究重点项目(ZD2014051)

出版年

2023
计算机技术与发展
陕西省计算机学会

计算机技术与发展

CSTPCD
影响因子:0.621
ISSN:1673-629X
被引量1
参考文献量2
段落导航相关论文