首页|CCL23-Eval任务2系统报告:基于大型语言模型的中文抽象语义表示解析

CCL23-Eval任务2系统报告:基于大型语言模型的中文抽象语义表示解析

扫码查看
中文抽象语义表示解析旨在将自然语句转换为抽象语义表示,是一个复杂的结构化预测任务。传统方法多利用抽象语义表示的图特征设计特殊模型或者多阶段解析来完成解析,而这类方法通常需要设计复杂的神经网络模型。目前,通用大型语言模型在已经多种自然语言处理任务上表现出惊人效果,我们在本次测评中尝试直接利用大型语言模型进行零样本学习、少样本学习以及用LoRA和全参数的方式微调大型语言模型来完成解析。我们得到了一个较好的评测结果,并对这些方案进行了讨论。
CCL23-Eval任务2系统报告:基于大型语言模型的中文抽象语义表示解析
Chinese Abstract Meaning Representation Parsing aims to convert natural language sentences into abstract semantic representations, which is a complex structure prediction task. Traditional approaches often utilize graph features of abstract semantic representations to design specialized models or employ multi-stage parsing. However, these methods typically require the design of complex neural network models. Currently, large language models have demonstrated astonishing performance on various natural language processing tasks. In this evaluation, we attempt to directly utilize a large language model for Zero-shot learning, Few-shot learning, and fine-tuning using LoRA and full-parameter approaches. We obtain promising evaluation results and discuss these approaches in detail.

中文抽象语义表示抽象语义表示解析大型语言模型

杨逸飞、程子鸣、赵海

展开 >

上海交通大学计算机科学与工程系

中文抽象语义表示 抽象语义表示解析 大型语言模型

Chinese national conference on computational linguistics

Harbin(CN)

22nd Chinese national conference on computational linguistics (CCL 2023): evaluations

41-52

2023