BERT is Not a Knowledge Base (Yet): Factual Knowledge vs. Name-Based Reasoning in Unsupervised QA
Nina Poerner, Ulli Waltinger, Hinrich Schütze
https://arxiv.org/abs/1911.03681
많은 상식을 알고있다고 주장하는 친구가 있다고 상상해보자.
이것이 QA benchmark인 경우 50%의 정확도이다. 그러나 performance는 배우의 모국어에 대한 factual knowledge를 나타내지 않음 사람들 이름의 기원에 대해 reasoning할 수 있음을 보여줌
LAMA에서는 unsupervised BERT LM이 factual knowledge를 암기한다고 주장. BERT가 relation extraction에 의해 구축된 knowledge base에 필적하는 unsupervised QA benchmark LAMA에 이 진술을 근거로 함. 그들은 BERT와 유사한 LM이 “text로부터 추출된 기존의 knowledge base에 대한 대안”이 될 수 있다고 주장. BERT의 성능은 부분적으로 entity name의 reasoning에 기인한다고 주장.
section 2.1에서는 entity name만으로 쉽게 응답할 수 있는 quert를 filtering하여 LAMA-Google-RE 및 LAMA-UHN 구성.(UnHelpfulNames, LAMA-T-REx의 actual” 하위집합) LAMA-UHN에서 BERT의 성능이 크게 저하됨을 보여줌.
section 3에서는 entity mention을 wikipedia2vec entity embedding으로 대체하는 E-BERT를 제안.
section 4에서는 E-BERT가 BERT와 LAMA에서 최근 제안된 entity enhanced ERNIE와 경쟁한다는 것을 보여줌.
E-BERT는 LAMA-UHN의 두 기준선에서 실직적인 우위를 점하고 있음. 또한, E-BERT와 BERT의 ensemble은 original LAMA의 모든 baseline을 능가.
LAMA benchmark는 LM 고유의 “factual and commonsense knowledge”를 조사한다. 본 논문에서는 factual knowledge을 목표로하는 LAMA-GoogleRE 및 LAMA-T-REx에 중점을 둠. QA에 대한 대부분의 이전 연구와 달리 LAMA는 w/o supervised finetuing으로 LM을 그대로 테스트함.
LAMA의 조사 방법은 다음과 같은 schema를 따른다.
entity에 대한 factual knowledge가 전혀없는 entity의 이름으로 entitny의 특성을 추측하는것이 종종 가능함. entity는 암묵적 또는 명시적 규칙.(작명을 하는데 관련된 문화적인 규범, 산업제품에 대한 저작권법) LAMA는 limited vocabulary로 추측하기가 훨씬 쉬우며, 특정 entity type 대한 일부 후보만 포함할 수 있음.
entity name을 control하지 않는 QA benchmark가 추론에 도움이 되는지, fact를 암기하는데 도움이 되는지 또는 두 가지 모두에 도움이 되는지 평가하지 않는다고 주장. 이 section에서는 LAMA-Google-RE, LAMA-T-REx의 subset인 LAMA-UHN(UnHelpfulNames)생성에 대해 설명.
이것은 BERT가 entity name에 대하여 추론하기때문에 LAMA에서 부분적으로 잘 작동한다는 것을 나타냄. 물론 name-based 추론은 그 자체로 유용한 능력이지만 factual knowledge로 그것을 혼란시키는 것은 오해의 소지가 있을 수 있다.
wikipedia2vec loss에는 세가지 구성 요소가 있음.
Examples: The native language of Jean marais is [MASK].