数据采集与处理2024,Vol.39Issue(3) :502-523.DOI:10.16337/j.1004-9037.2024.03.002

大语言模型评估技术研究进展

Research Progress in Evaluation Techniques for Large Language Models

赵睿卓 曲紫畅 陈国英 王坤龙 徐哲炜 柯文俊 汪鹏
数据采集与处理2024,Vol.39Issue(3) :502-523.DOI:10.16337/j.1004-9037.2024.03.002

大语言模型评估技术研究进展

Research Progress in Evaluation Techniques for Large Language Models

赵睿卓 1曲紫畅 1陈国英 1王坤龙 1徐哲炜 1柯文俊 2汪鹏2
扫码查看

作者信息

  • 1. 北京计算机技术及应用研究所,北京 100854
  • 2. 东南大学计算机科学与工程学院,南京 211189
  • 折叠

摘要

随着大语言模型的广泛应用,针对大语言模型的评估工作变得至关重要.除了大语言模型在下游任务上的表现情况需要评估外,其存在的一些潜在风险更需要评估,例如大语言模型可能违背人类的价值观并且被恶意输入诱导引发安全问题等.本文通过分析传统软件、深度学习模型与大模型的共性与差异,借鉴传统软件测评和深度学习模型评估的指标体系,从大语言模型功能评估、性能评估、对齐评估和安全性评估几个维度对现有工作进行总结,并对大模型的评测基准进行介绍.最后依据现有研究与潜在的机遇和挑战,对大语言模型评估技术方向和发展前景进行了展望.

Abstract

With the widespread application of large language models,the evaluation of large language models has become crucial.In addition to the performance of large language models in downstream tasks,some potential risks should also be evaluated,such as the possibility that large language models may violate human values and be induced by malicious input to trigger security issues.This paper analyzes the commonalities and differences between traditional software,deep learning systems,and large model systems.It summarizes the existing work from the dimensions of functional evaluation,performance evaluation,alignment evaluation,and security evaluation of large language models,and introduces the evaluation criteria for large models.Finally,based on existing research and potential opportunities and challenges,the direction and development prospects of large language models evaluation technology are discussed.

关键词

大语言模型/功能评估/性能评估/对齐评估/安全性评估

Key words

large language models/functional evaluation/performance evaluation/alignment evaluation/security evaluation

引用本文复制引用

基金项目

国家自然科学基金(62376057)

东南大学启动研究基金(RF1028623234)

出版年

2024
数据采集与处理
中国电子学会 中国仪器仪表学会信号处理学会 中国仪器仪表学会中国物理学会微弱信号检测学会 南京航空航天大学

数据采集与处理

CSTPCDCSCD北大核心
影响因子:0.679
ISSN:1004-9037
参考文献量159
段落导航相关论文