我们词嵌⼊的过程,就相当于是我们在给计算机制造出⼀本字典的过程。计算机可以通过这个字典来间接地识别⽂字。词嵌⼊向量的意思也可以理解成:词在神经⽹络中的向量表⽰。详细可看 pytorch中的embedding 输⼊是⼀个索引列表,输出是相应的词嵌⼊ torch.nn.Embedding(num_embeddings, embedding_dim, ...
Embedding(7,2,input_length=5) 其中,第一个参数是input_dim,上面的值是7,代表的是单词表的长度;第二个参数是output_dim,上面的值是2,代表输出后向量长度为2;第三个参数是input_length,上面的值是5,代表输入序列的长度。 一旦神经网络被训练了,Embedding层就会被赋予一个权重,计算出来的结果如下: 代码语言:...