我把资源的名称还有有标签等文本转稠密向量存在 ES 里,然后通过 ES 的 kNN 方式来检索资源。 这里的文本更多是一个个的词而不是短句,试过 Bert 家族 roberta 类型的中文模型 Chinese-BERT-wwm,不是很理想,经常不搭边的词会得到非常高的分数,试了 BAAI/bge-large-zh-v1.5 模型,感觉上效果会更好一点,但也...
This PR is used to update the Embedding Mosec dockerfile to use BAAI/bge-large-zh-v1.5. Description update the Embedding Mosec dockerfile to use BAAI/bge-large-zh-v1.5. Issues n/a Type of change List the type of change like below. Please delete options that are not relevant. [*] Bug...
本页面详细介绍了AI模型BGE-Large-zh(BAAI General Embedding - Large - zh)的信息,包括BGE-Large-zh简介、BGE-Large-zh发布机构、发布时间、BGE-Large-zh参数大小、BGE-Large-zh是否开源等。同时,页面还提供了模型的介绍、使用方法、所属领域和解决的任务等信息。
BGE (BAAI General Embedding) 是智源开源的中英文语义向量模型,在3亿条中英文关联文本对上训练。是目前线上表现最好的开源向量模型。 最新开源的BGE v1.5版本,缓解了相似度分布问题,通过对训练数据进行过滤,删除低质量数据,提高训练时温度系数 temperature 至 0.02,使得相似度数值更加平稳。 BGE v1.5包含large、base...