相比 RoBERTa,XLM-RoBERTa 的参数规模也有所增加,提供 base(2.7 亿参数)和 large(5.5 亿参数)两个版本。它在跨语言基准测试(如 XNLI)中显著超越了多语言 BERT(mBERT),展现了强大的语言迁移能力。 三、BGE-M3 实验与应用 FlagEmbedding 是由北京智源人工智能研究院(BAAI)开发的一个开源项目,专注于语义嵌入模
- m3e-large 36.029 61.765 72.059 基础模型 - bge-small-zh 36.765 65.441 74.265 基础模型 - bge-base-zh 38.235 64.706 78.676 基础模型 - bge-large-zh 38.971 68.382 82.353 基础模型 chinese-macbert-base text2vec-base-chinese 40.441 72.059 80.147 基础模型,图 - text2vec-large-chinese 38.235 77.941...