Aspect-based Sentiment Analysis (ABSA) is a fine-grained opinion mining approach that identifies and classifies opinions associated with specific entities (aspects) or their categories within a sentence. Despite its rapid growth and broad potential, ABSA research and resources remain concentrated in commercial domains, leaving analytical needs unmet in high-demand yet low-resource areas such as education and healthcare. Domain adaptation challenges and most existing methods' reliance on resource-intensive in-training knowledge injection further hinder progress in these areas. Moreover, traditional evaluation methods based on exact matches are overly rigid for ABSA tasks, penalising any boundary variations which may misrepresent the performance of generative models. This work addresses these gaps through three contributions: 1) We propose a novel evaluation method, Flexible Text Similarity Matching and Optimal Bipartite Pairing (FTS-OBP), which accommodates realistic extraction boundary variations while maintaining strong correlation with traditional metrics and offering fine-grained diagnostics. 2) We present the first ABSA study of small decoder-only generative language models (SLMs; <7B parameters), examining resource lower bounds via a case study in education review ABSA. We systematically explore data-free (in-context learning and weight merging) and data-light fine-tuning methods, and propose a multitask fine-tuning strategy that significantly enhances SLM performance, enabling 1.5-3.8 B models to surpass proprietary large models and approach benchmark results with only 200-1,000 examples on a single GPU. 3) We release the first public set of education review ABSA resources to support future research in low-resource domains.


翻译:方面情感分析是一种细粒度意见挖掘方法,旨在识别并分类句子中与特定实体(方面)或其类别相关的情感观点。尽管该领域发展迅速且应用潜力广泛,但当前ABSA的研究与资源仍主要集中在商业领域,导致教育、医疗等高需求但资源匮乏领域的分析需求未能得到满足。领域适应挑战以及多数现有方法对资源密集型训练中知识注入的依赖,进一步阻碍了这些领域的研究进展。此外,基于精确匹配的传统评估方法对于ABSA任务而言过于僵化,任何边界变化都会受到惩罚,这可能误导生成模型的性能评估。本研究通过三项贡献填补上述空白:1)提出一种新型评估方法——灵活文本相似度匹配与最优二分图配对,该方法在保持与传统指标强相关性的同时,能够适应实际提取中的边界变化,并提供细粒度诊断;2)首次针对小型仅解码器生成语言模型开展ABSA研究,通过教育评论ABSA的案例探究资源需求下限。系统探索了无数据(上下文学习与权重融合)与轻数据微调方法,并提出一种多任务微调策略,显著提升了SLM性能,使1.5-3.8B参数模型在单GPU上仅用200-1000个示例即可超越专有大模型并接近基准结果;3)发布首个公开的教育评论ABSA资源集,以支持低资源领域的后续研究。

0
下载
关闭预览

相关内容

【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
知识图谱KG在NLP的十年研究进展综述
专知
17+阅读 · 2022年10月4日
ICLR'21 | GNN联邦学习的新基准
图与推荐
12+阅读 · 2021年11月15日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员