语言模型(LMs)在训练过程中遇到了大量的世界知识,最近的研究表明如何通过各种形式的LM提示/微调/探索来恢复其中的一些知识。但是我们离实现知识库的全部功能和精确度还有多远呢?哪些挑战可以通过简单地放大更多的参数来解决,哪些挑战需要与模型大小正交的新研究? 在这次演讲中,我将从评估LMs今天能做和不能做的边界开始。然后,我将讨论一组(可能)单靠模型扩展无法克服的关键挑战,以及最近为解决这些挑战所做的工作。例如:我们如何获得模型声明的出处?我们如何更新模型以适应新信息或新环境?
https://uskb-workshop.github.io/