[논문리뷰] Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model

Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model
Wenhan Xiong, Jingfei Du, William Yang Wang, Veselin Stoyanov
https://arxiv.org/abs/1912.09637

Short Review

  • zero-shot fact completion task를 통해 BERT와 같은 pre-train model이 knowledge를 capture하는 정도를 조사.
  • 단순하지만 효과적인 weakly supvervised training objective를 제안.
  • 제안하는 training objective는 model이 real-world entities에 대한 knowledge를 포함하도록 함.

Entity Replacement Training

fig1

  • input document가 주어지면 entity를 인식하여 wikipedia entity에 linking.
  • 원문을 positive konwledge로 entity와 동일한 유형의 다른 entity로 변경하여 negative knowledge로 샘플링.(negative sampling과 유사)
  • context CC에서 특정 entity ee에 대해 entity가 대체되었는지 binary classification.
  • entity가 같은 유형이기때문에 원문어 언어 정확성을 유지하면서 system은 사실적인 측면에 근거하여 판단하는법을 배워야함.

table3 table4 table6


Written by@[Jeonsworld]
lean and mean