The rapid growth of digital commerce has led to the accumulation of a massive number of consumer reviews on online platforms. Shopee, as one of the largest e-commerce platforms in Southeast Asia, receives millions of product reviews every day containing valuable information regarding customer satisfaction and preferences. Manual analysis of these reviews is inefficient, thus requiring a computational approach such as sentiment analysis. This study examines the use of DistilBERT, a lightweight transformer-based deep learning model, for sentiment classification on Shopee product reviews. The dataset used consists of approximately one million English-language reviews that have been preprocessed and trained using the distilbert-base-uncased model. Evaluation was conducted using accuracy, precision, recall, and F1-score metrics, and compared against benchmark models such as BERT and SVM. The results show that DistilBERT achieved an accuracy of 94.8%, slightly below BERT (95.3%) but significantly higher than SVM (90.2%), with computation time reduced by more than 55%. These findings demonstrate that DistilBERT provides an optimal balance between accuracy and efficiency, making it suitable for large scale sentiment analysis on e-commerce platforms. Keywords: Sentiment Analysis, DistilBERT, Shopee Reviews, Natural Language Processing, Deep Learning, Transformer Models.


翻译:数字商务的快速发展导致在线平台积累了海量的消费者评论。Shopee作为东南亚最大的电子商务平台之一,每天接收数百万条包含客户满意度和偏好等有价值信息的产品评论。对这些评论进行人工分析效率低下,因此需要采用情感分析等计算方法。本研究探讨了使用基于Transformer的轻量级深度学习模型DistilBERT对Shopee产品评论进行情感分类的效果。所用数据集包含约一百万条经过预处理的英文评论,并采用distilbert-base-uncased模型进行训练。评估使用准确率、精确率、召回率和F1分数等指标,并与BERT和SVM等基准模型进行比较。结果显示,DistilBERT实现了94.8%的准确率,略低于BERT(95.3%),但显著高于SVM(90.2%),且计算时间减少了55%以上。这些发现表明,DistilBERT在准确性和效率之间提供了最佳平衡,适用于电子商务平台的大规模情感分析。关键词:情感分析、DistilBERT、Shopee评论、自然语言处理、深度学习、Transformer模型。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
11+阅读 · 2023年9月22日
Arxiv
15+阅读 · 2022年5月14日
Arxiv
27+阅读 · 2021年11月11日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
相关论文
Arxiv
11+阅读 · 2023年9月22日
Arxiv
15+阅读 · 2022年5月14日
Arxiv
27+阅读 · 2021年11月11日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员