首页|优化预训练模型的小语料中文文本分类方法

优化预训练模型的小语料中文文本分类方法

扫码查看
针对GloVe、BERT模型生成的字向量在小语料库中表义不足的问题,提出融合向量预训练模型,对小语料中文短文本分类的精确度进行提升.本文以今日头条新闻公开数据集为实验对象,使用GloVe、BERT模型通过领域预训练,对GloVe与BERT生成的预训练字向量进行向量融合,实现语义增强,从而提升短文本分类效果.结果表明,当语料库中的数据量为500时,融合字向量的准确度相较于BERT字向量的准确度提升了5个百分点,相较于GloVe字向量的准确度提升了3个百分点.词义选取的维度待进一步加强.本文所提方法能够对小语料库的短文本数据实现精准分类,对后续文本挖掘工作具有重要意义.
A Small-Corpus Chinese Text Classification Method for Optimizing Pre-trained Models

陈蓝、杨帆、曾桢

展开 >

贵州财经大学信息学院,贵阳 550000

BERT GloVe 向量融合 小语料 短文本

教育部产学合作协同育人项目

BZX1902-20

2022

现代计算机
中大控股

现代计算机

影响因子:0.292
ISSN:1007-1423
年,卷(期):2022.28(16)
  • 13