Prompt-based knowledge probing for 1-hop relations has been used to measure how much world knowledge is stored in pretrained language models. Existing work uses considerable amounts of data to tune the prompts for better performance. In this work, we compare a variety of approaches under a few-shot knowledge probing setting, where only a small number (e.g., 10 or 20) of example triples are available. In addition, we create a new dataset named TREx-2p, which contains 2-hop relations. We report that few-shot examples can strongly boost the probing performance for both 1-hop and 2-hop relations. In particular, we find that a simple-yet-effective approach of finetuning the bias vectors in the model outperforms existing prompt-engineering methods. Our dataset and code are available at \url{https://github.com/cloudygoose/fewshot_lama}.
翻译:为 1- hop 关系快速进行知识调查已被用于测量在经过训练的语言模型中存储了多少世界知识。 现有工作使用大量数据来调和速度, 以便取得更好的业绩 。 在这项工作中, 我们比较了在几发知识探测环境中的各种方法, 在那里只有少量( 例如10 或 20 ) 的三重示例。 此外, 我们创建一个名为 TREx-2p 的新数据集, 包含 2- hop 关系 。 我们报告说, 少见的例子可以有力地促进 1- hop 和 2- hop 关系中的探测性能。 特别是, 我们发现, 模型中微调偏向矢的简单而有效的方法超越了现有的快速工程方法。 我们的数据集和代码可以在 url{https://github. com/ clooudygoose/fewshot_lama} 获得 。