成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
大语言模型
关注
19
大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
综合
百科
VIP
热门
动态
论文
精华
Can Large Language Models Replicate ITS Feedback on Open-Ended Math Questions?
Arxiv
0+阅读 · 5月10日
Explaining Arguments' Strength: Unveiling the Role of Attacks and Supports (Technical Report)
Arxiv
0+阅读 · 5月10日
SKVQ: Sliding-window Key and Value Cache Quantization for Large Language Models
Arxiv
0+阅读 · 5月10日
Supporting Physical Activity Behavior Change with LLM-Based Conversational Agents
Arxiv
0+阅读 · 5月9日
Large Language Models are Clinical Reasoners: Reasoning-Aware Diagnosis Framework with Prompt-Generated Rationales
Arxiv
0+阅读 · 5月10日
UniDM: A Unified Framework for Data Manipulation with Large Language Models
Arxiv
0+阅读 · 5月10日
LLMs for XAI: Future Directions for Explaining Explanations
Arxiv
0+阅读 · 5月9日
SaudiBERT: A Large Language Model Pretrained on Saudi Dialect Corpora
Arxiv
0+阅读 · 5月10日
Special Characters Attack: Toward Scalable Training Data Extraction From Large Language Models
Arxiv
0+阅读 · 5月9日
Mitigating Hallucinations in Large Language Models via Self-Refinement-Enhanced Knowledge Retrieval
Arxiv
0+阅读 · 5月10日
Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL
Arxiv
0+阅读 · 5月10日
Selective Fine-tuning on LLM-labeled Data May Reduce Reliance on Human Annotation: A Case Study Using Schedule-of-Event Table Detection
Arxiv
0+阅读 · 5月9日
Risks of Practicing Large Language Models in Smart Grid: Threat Modeling and Validation
Arxiv
0+阅读 · 5月10日
Linearizing Large Language Models
Arxiv
0+阅读 · 5月10日
MedXChat: A Unified Multimodal Large Language Model Framework towards CXRs Understanding and Generation
Arxiv
0+阅读 · 5月10日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top