大语言模型(LLMs)在各类自然语言任务中取得了显著的成功。然而,近期研究发现,LLMs 在逻辑推理能力上仍面临着一些显著的挑战。本文总结并将这些挑战分类为两个方面:(1)逻辑问答,LLMs 常常无法在复杂的逻辑问题中生成正确答案,这类问题需要根据一组前提和约束进行复杂的推理,包括演绎推理、归纳推理或溯因推理;(2)逻辑一致性,LLMs 容易在不同问题中生成自相矛盾的回答。例如,一个最先进的 Macaw 问答型 LLM 对问题“喜鹊是鸟吗?”和“鸟有翅膀吗?”的回答均为“是”,但对问题“喜鹊有翅膀吗?”的回答却为“否”。为了促进这一研究方向的发展,我们全面调查了当前最前沿的方法,并提出了这些方法的详细分类。具体而言,为了准确回答复杂的逻辑问题,现有方法可以根据是否依赖外部求解器、提示(prompt)、预训练以及微调进行分类。为了避免逻辑矛盾,我们讨论了多种逻辑一致性的概念和解决方案,包括蕴涵、否定、传递性、事实一致性及其组合。此外,我们还回顾了常用的基准数据集和评估指标,并讨论了有前景的研究方向,如扩展模态逻辑以应对不确定性,以及满足多个逻辑一致性的高效算法。