Recent large language models (LLMs) in the general domain, such as ChatGPT, have shown remarkable success in following instructions and producing human-like responses. However, such language models have not been learned individually and carefully for the medical domain, resulting in poor diagnostic accuracy and inability to give correct recommendations for medical diagnosis, medications, etc. To address this issue, we collected more than 700 diseases and their corresponding symptoms, recommended medications, and required medical tests, and then generated 5K doctor-patient conversations. By fine-tuning models of doctor-patient conversations, these models emerge with great potential to understand patients' needs, provide informed advice, and offer valuable assistance in a variety of medical-related fields. The integration of these advanced language models into healthcare can revolutionize the way healthcare professionals and patients communicate, ultimately improving the overall quality of care and patient outcomes. In addition, we will open all source code, datasets and model weights to advance the further development of dialogue models in the medical field. In addition, the training data, code, and weights of this project are available at: https://github.com/Kent0n-Li/ChatDoctor.


翻译:近来在一般领域表现出色的大型语言模型 (LLMs),例如ChatGPT,已经展现出惊人的成功率,它们能够利用指南并产生类人的回应。但是,这种语言模型尚未经过针对医疗领域的单独和认真学习,导致诊断准确性差和无法给出正确的医疗诊断、药物推荐等建议。为了解决这个问题,我们收集了700多种疾病及其相应的症状、推荐药物和所需的医学检查,并生成了5万个医生-患者对话。通过对医生-患者对话模型进行微调,这些模型具有了极大的潜力,能够理解患者的需求,提供明智的建议,并在各种医疗相关领域提供有价值的援助。将这些先进的语言模型整合到医疗保健中,可以彻底改变医疗保健专业人员和患者之间的沟通方式,最终提高整体护理和患者预后的质量。此外,我们将开放所有的源代码,数据集和模型权重等,以进一步推进医疗领域对话模型的发展。此项目的训练数据、代码和权重可在以下网址下载:https://github.com/Kent0n-Li/ChatDoctor。

0
下载
关闭预览

相关内容

百篇论文纵览大型语言模型最新研究进展
专知会员服务
69+阅读 · 2023年3月31日
NeurlPS 2022 | 自然语言处理相关论文分类整理
专知会员服务
48+阅读 · 2022年10月2日
Nature Medicine | 多模态的生物医学AI
专知会员服务
30+阅读 · 2022年9月25日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
47+阅读 · 2020年12月26日
专知会员服务
123+阅读 · 2020年9月8日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月15日
Arxiv
1+阅读 · 2023年5月14日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员