通过代码自己下载BERT模型很慢,我们可以将模型下载到本地,从本地进行加载。 1.下载预训练模型 下载地址: Hugging Face – The AI community building the future.huggingface.co/ 在箭头位置检索你需要的模型,比如鄙人要下载‘bert-large-uncased-whole-word-masking-finetuned-squad’ 点击File And Versions 根...
我们可以发现,其实google给的bert-base模型的ckpt文件,不仅仅是保存了bert-transform每一层的参数,而且也存储了embedding和预训练需要的预测参数(例如:在进行NPS预测时所需的全连接层参数)。因此,我之前给那位朋友的回答是存在偏差的。 接下来,我们通过tf.train.NewCheckpointReader来读取我们fine-tune之后的模型,看一...
下载transformer bert模型到本地 https://zhuanlan.zhihu.com/p/147144376