首页|基于Bagging的精确有效图书分类多基模型框架

基于Bagging的精确有效图书分类多基模型框架

扫码查看
为了提高智慧图书馆图书分类效果,提出模型Bagging_Bert(简称B_Bert,基于自举汇聚法的有效文本分类模型)。B_Bert在Bert(基于神经网络的自然语言处理预训练技术)基础上,运用Bag-ging(引导聚集算法),选出最优参数组并组成多基模型框架,再通过投票机制确定最终类别。实验显示,无论在哪种分类标准和数据规模下,B_Bert的四个概率指标均领先Bert、fastText(快速文本分类算法)和TextCNN(文本卷积神经网络),另外B_Bert在细粒度分类下性能改进更明显,且当数据规模小时并不影响B_Bert的性能优势。因此,B_Bert的分类效果较Bert、fastText和TextCNN具有一定的竞争力。
A multi-base model framework for accurate and effective book classification based on Bagging
In order to improve the book classification effect of the smart library,the model Bagging_Bert(short for B_Bert,an effective text classification model based on bootstrap aggregation)is proposed.Based on Bert(natural language processing pre-training technology based on neural network),B_Bert uses Bag-ging(bootstrap aggregating)to select the optimal parameter array and form a multi-base model framework,and then determines the final category through voting mechanism.Experiments show that whichever the classification criteria and data size is,B_Bert's four probability indicators are ahead of Bert,fastText(fast text classification algorithm)and TextCNN(text convolution neural network).In addition,B_Bert's per-formance improvement is more obvious under fine-grained classification,and when the data size is small,it does not affect B_Bert's performance advantages.Therefore,The classification effect of B_Bert is more competitive than Bert,fastText and TextCNN.

book classificationnatural language processingbootstrap aggregatingmultibase modeltext classification

沈雅婷、邵莹、宗平、卞恺

展开 >

南京理工大学紫金学院计算机学院,南京 210023

图书分类 自然语言处理 引导聚集算法 多基模型 文本分类

江苏省高等学校自然科学研究项目江苏高校哲学社会科学研究项目全国高等院校计算机基础教育研究会计算机基础教育教学研究项目南京理工大学紫金学院科学研究项目江苏省大学生创新创业项目

21KJB5200092021SJA22532021-AFCEC-3322021ZRKX0401004202213654019Y

2024

信息技术
黑龙江省信息技术学会 中国电子信息产业发展研究院 中国信息产业部电子信息中心

信息技术

CSTPCD
影响因子:0.413
ISSN:1009-2552
年,卷(期):2024.(9)