成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
CoT
关注
1
综合
百科
VIP
热门
动态
论文
精华
Patience Is The Key to Large Language Model Reasoning
Arxiv
0+阅读 · 11月20日
Re-Reading Improves Reasoning in Large Language Models
Arxiv
0+阅读 · 11月19日
Understanding Chain-of-Thought in LLMs through Information Theory
Arxiv
0+阅读 · 11月18日
Redefining Proactivity for Information Seeking Dialogue
Arxiv
0+阅读 · 11月18日
Comparison of Multilingual and Bilingual Models for Satirical News Detection of Arabic and English
Arxiv
0+阅读 · 11月16日
Rethinking Thinking Tokens: Understanding Why They Underperform in Practice
Arxiv
0+阅读 · 11月18日
Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization
Arxiv
0+阅读 · 11月15日
Bias Unveiled: Investigating Social Bias in LLM-Generated Code
Arxiv
0+阅读 · 11月15日
Do Large Language Models Truly Grasp Mathematics? An Empirical Exploration From Cognitive Psychology
Arxiv
0+阅读 · 11月15日
Do Large Language Models Truly Grasp Mathematics? An Empirical Exploration From Cognitive Psychology
Arxiv
0+阅读 · 11月14日
Is Moral Self-correction An Innate Capability of Large Language Models? A Mechanistic Analysis to Self-correction
Arxiv
0+阅读 · 11月13日
Reasoning Robustness of LLMs to Adversarial Typographical Errors
Arxiv
0+阅读 · 11月8日
Gap-Filling Prompting Enhances Code-Assisted Mathematical Reasoning
Arxiv
0+阅读 · 11月8日
Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse
Arxiv
0+阅读 · 11月8日
Language Models are Hidden Reasoners: Unlocking Latent Reasoning Capabilities via Self-Rewarding
Arxiv
0+阅读 · 11月6日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top