NNLM 和 Word2Vec 基本一致(一模一样),不考虑细节,网络架构就是一模一样 CBOW 给出一个词的上下文,得到这个词 “我是最_的Nick” “帅” \(w_t\) Skip-gram 给出一个词,得到这个词的上下文 “帅” “我是_的Nick” NNLM 和 Word2Vec 的区别 NNNL --》 重点是预测...