命名實體識別(NER)(也稱為實體標識,實體組塊和實體提取)是信息抽取的子任務,旨在將非結構化文本中提到的命名實體定位和分類為預定義類別,例如人員姓名、地名、機構名、專有名詞等。

知識薈萃

命名實體識別 Named Entity Recognition 專知薈萃

綜述

  1. Jing Li, Aixin Sun,Jianglei Han, Chenliang Li

  2. A Review of Named Entity Recognition (NER) Using Automatic Summarization of Resumes

模型算法

  1. LSTM + CRF中的NCRF++算法:Design Challenges and Misconceptions in Neural Sequence Labeling.COLLING 2018.

  2. CNN+CRF:

  3. BERT+(LSTM)+CRF:

入門學習

  1. NLP之CRF應用篇(序列標注任務)( CRF++的詳細解析、Bi-LSTM+CRF中CRF層的詳細解析、Bi-LSTM後加CRF的原因、CRF和Bi-LSTM+CRF優化目標的區別) )

  2. Bilstm+CRF中的CRF詳解

  3. Bilstm-CRF中的CRF層解析-2

  4. Bilstm-CRF中的CRF層解析-3

  5. CRF和LSTM模型在序列標注上的優劣?

  6. CRF和LSTM的比較

  7. 入門參考:命名實體識別(NER)的二三事

  8. 基礎卻不簡單,命名實體識別的難點與現狀

  9. 通俗理解BiLSTM-CRF命名實體識別模型中的CRF層

重要報告

Tutorial

1.(pyToech)高級:製定動態決策和BI-LSTM CRF(Advanced: Making Dynamic Decisions and the Bi-LSTM CRF) - [https://pytorch.org/tutorials/beginner/nlp/advanced_tutorial.html]

代碼

1.中文命名實體識別(包括多種模型:HMM,CRF,BiLSTM,BiLSTM+CRF的具體實現)

- [https://github.com/luopeixiang/named_entity_recognition]

領域專家

1.華為-諾亞方舟 - 李航 []

2.美國伊利諾伊大學 - 韓家煒 [https://hanj.cs.illinois.edu/]

命名實體識別工具

  1. Stanford NER
  2. MALLET
  3. Hanlp
  4. NLTK
  5. spaCy
  6. Ohio State University Twitter NER

###相關數據集

  1. CCKS2017 開放的中文的電子病例測評相關的數據。 評測任務一:

  2. CCKS2018 開放的音樂領域的實體識別任務。

評測任務:

- [https://biendata.com/competition/CCKS2018_2/]
  1. NLPCC2018 開放的任務型對話係統中的口語理解評測。

CoNLL 2003

https://www.clips.uantwerpen.be/conll2003/ner/

進階論文

1999

2005

2006

2008

2009

2010

2011

2012

2013

2014

2015

2016

2017

2018

2019

2020

VIP內容

論文針對現有跨語言命名實體識別方法主要使用源語言數據和翻譯數據的局限性,提出充分利用目標語言的大規模無標簽數據提升遷移性能。作者基於半監督學習和強化學習方法,提出RIKD模型,首先通過在目標語言無標簽數據上迭代知識蒸餾,不斷獲得更高效的學生模型。其次,為了降低蒸餾過程中教師模型的推理錯誤和低質量數據帶來的噪聲,設計了一個基於強化學習的樣本選擇器,動態選擇信息量更大的樣本進行蒸餾。實驗結果表明,RIKD在基準數據集和內部數據集上顯著優於現有最優模型。

//www.webtourguide.com/paper/18a3b87ee49058589b9acb0098a3ab42

成為VIP會員查看完整內容
0
13
0

最新論文

In this work, we examine the ability of NER models to use contextual information when predicting the type of an ambiguous entity. We introduce NRB, a new testbed carefully designed to diagnose Name Regularity Bias of NER models. Our results indicate that all state-of-the-art models we tested show such a bias; BERT fine-tuned models significantly outperforming feature-based (LSTM-CRF) ones on NRB, despite having comparable (sometimes lower) performance on standard benchmarks. To mitigate this bias, we propose a novel model-agnostic training method that adds learnable adversarial noise to some entity mentions, thus enforcing models to focus more strongly on the contextual signal, leading to significant gains on NRB. Combining it with two other training strategies, data augmentation and parameter freezing, leads to further gains.

0
0
0
下載
預覽
Top