原始的Biaffine Parser使用词性Embedding作为模型编码器的辅助输入,这里SuPar还提供了利用CharLSTM或者BERT产生的字表示或者子词表示,来代替词性. 其中CharLSTM是默认的选项,避免了额外的词性标注器来生成词性的麻烦,此外相比BERT更加的高效.SuPar中的 BERT模块是基于transformers中的预训练模型来产生特征. 由于其中的预训练...
$ git clone https://github.com/chantera/biaffineparser $ cd biaffineparser $ pip install -r requirements.txtUsageTrainingusage: main.py train [-h] --train_file FILE [--eval_file FILE] [--embed_file FILE] [--max_steps NUM] [--eval_interval NUM] [--batch_size NUM] [--learning_...
BERT+Transformer+Biaffine dependency parser Update [2020-04-23] 修复数据加载中一个bug,在use_cache=True时可大幅度缩短数据加载准备耗时 以上结果均为在Semeval-2016-Test集上测试得到的LAS 详细结果见:metrics记录 Semeval-2016 Task9数据集 原始评测数据集:HIT-SCIR/SemEval-2016: SemEval-2016 Task 9: Ch...