Objective: Leveraging machine learning methods, we aim to extract both explicit and implicit cause-effect associations in patient-reported, diabetes-related tweets and provide a tool to better understand opinion, feelings and observations shared within the diabetes online community from a causality perspective. Materials and Methods: More than 30 million diabetes-related tweets in English were collected between April 2017 and January 2021. Deep learning and natural language processing methods were applied to focus on tweets with personal and emotional content. A cause-effect-tweet dataset was manually labeled and used to train 1) a fine-tuned Bertweet model to detect causal sentences containing a causal association 2) a CRF model with BERT based features to extract possible cause-effect associations. Causes and effects were clustered in a semi-supervised approach and visualised in an interactive cause-effect-network. Results: Causal sentences were detected with a recall of 68% in an imbalanced dataset. A CRF model with BERT based features outperformed a fine-tuned BERT model for cause-effect detection with a macro recall of 68%. This led to 96,676 sentences with cause-effect associations. "Diabetes" was identified as the central cluster followed by "Death" and "Insulin". Insulin pricing related causes were frequently associated with "Death". Conclusions: A novel methodology was developed to detect causal sentences and identify both explicit and implicit, single and multi-word cause and corresponding effect as expressed in diabetes-related tweets leveraging BERT-based architectures and visualised as cause-effect-network. Extracting causal associations on real-life, patient reported outcomes in social media data provides a useful complementary source of information in diabetes research.


翻译:目标:利用机器学习方法,我们的目标是从患者报告、糖尿病相关推文中提取明确和隐含的原因效应协会,目的是从因果关系的角度,从患者报告、糖尿病相关推文中提取明确和隐含的原因效应协会,并提供一个工具,以便从因果关系角度更好地了解糖尿病在线社区内共享的意见、感觉和观察; 材料和方法:2017年4月至2021年1月,收集了3 000多万个英文糖尿病相关推文; 运用深层次的学习和自然语言处理方法,以关注带有个人和情感内容的推文; 人工贴标签,并用于培训:(1) 一个经精细调的BERT模型,以检测含有因果关系的因果判决;(2) 一个基于BERT的通用报告格式模型,以基于因果关联的因果关系2; 一种基于BERT的互为补充的因果结构模式,以基于补充的因果结构特征为基础,以提取可能的因果联系; 各种原因和效果组合组合,在互动的因果-效果-效果-网络中,“Dabilalalalal oral oral comst ” 和“Silding commal-commation commal commation commess commation comdudududududududududududududuction comduduction” 和“Dal commal comdu comdududuction commation commation commal commation commess commation commal 。

0
下载
关闭预览

相关内容

专知会员服务
42+阅读 · 2020年12月18日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
保序最优传输:Order-preserving Optimal Transport
我爱读PAMI
6+阅读 · 2018年9月16日
已删除
将门创投
4+阅读 · 2018年7月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Learning to Focus when Ranking Answers
Arxiv
5+阅读 · 2018年8月8日
Arxiv
6+阅读 · 2018年3月29日
Arxiv
3+阅读 · 2018年3月2日
VIP会员
相关资讯
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
保序最优传输:Order-preserving Optimal Transport
我爱读PAMI
6+阅读 · 2018年9月16日
已删除
将门创投
4+阅读 · 2018年7月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员