1.把我们要获取词向量的句子进行分词处理,再根据模型中的vocab.txt获取每个词的对应的索引。 token初始化 1 2 3 tokenized_text=tokenizer.tokenize(marked_text) print(tokenized_text) ['[CLS]','after','stealing','money','from','the','bank','vault',',','the','bank','robber','was','seen'...