input/を参考input/labels_enesub.txtは教師データに合わせて準備する
-
BERT事前学習モデル: BERT日本語Pretrainedモデル(京大)
Japanese_L-12_H-768_A-12_E-30_BPE- NERなので単語単位のBERTを採用している
-
知識ベースとして用いる 「拡張固有表現+Wikipedia」データ
ENEW_ENEtag_20160305.txtENEW_StructuredWikipedia_20160305.txt
- install
pipenv- GPU利用時は
tensorflow-gpuに書き換える
- GPU利用時は
pipenv install