验证集消融实验结果。 最终可以看到,利用对抗训练、知识蒸馏等方法,我们的单模型在RoBERTa Baseline的基础上提升了1.8个百分点。总结 这次的CoQA挑战赛经历,是我们团队站在巨人肩膀上的一次眺望。在优化模型的过程中,我们发现由于预训练模型已经相当强大,以往一些屡试不爽的优化技巧在RoBERTa上却并不能奏效。这就需要我们在比赛的过程中,大胆地设想,仔细地实验,验证不同方法的有效性和稳定性,从而找到真正行之有效的解决方案。希望我们的这次分享也能给其他团队带来一些经验上的启发。 参考文献:[1] CoQA Leaderboard. https://stanfordnlp.github.io/coqa/[2] SQuAD: 100,000+ Questions for Machine Comprehension of Text. https://arxiv.org/abs/1606.05250[3] CoQA: A Conversational Question Answering Challenge. https://arxiv.org/abs/1808.07042[4] RoBERTa: A Robustly Optimized BERT Pretraining Approach. https://arxiv.org/abs/1907.11692[5] BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding. https://arxiv.org/abs/1810.04805[6] Adversarial Training Methods for Semi-Supervised TextClassification. https://arxiv.org/abs/1605.07725[7] Distilling the Knowledge in a Neural Network. https://arxiv.org/abs/1503.02531[8] Born Again Neural Networks. https://arxiv.org/abs/1805.04770机器之心「SOTA模型」:22大领域、127个任务,机器学习 SOTA 研究一网打尽。