1、DeepSeek Coder,它是代码大模型,仓库地址为: https://github.com/DeepSeek-AI/DeepSeek-Coder 在这个仓库中,你可以找到模型的详细介绍、使用文档、代码示例,还能下载对应的模型权重来开展开发工作。 2、DeepSeek LLM, 它是通用大语言模型,仓库地址为: https://github.com/DeepSeek-AI/DeepSeek-LLM 这里有关...
五、普通人能用它干啥? 学生党:用DeepSeek-Math 刷数学题,让它一步步教你解题。 打工人:上传PDF 让它总结重点,或者帮你写周报。 程序员:让DeepSeek-Coder 帮忙写代码,甚至自动找 Bug。 文艺青年:用它生成旅行攻略、小说大纲,甚至给朋友圈配文案。 六、总结 一句话总结。 DeepSeek 的模型就像工具包里的不同...
2024年2月:开源 DeepSeek Coder 系列模型,代码模型。 2024年2月:开源 DeepSeek Math 模型 2024年3月:开源 DeepSeek-VL 系列模型,该模型具备通用的多模态理解能力,能够处理包括逻辑图表、网页、公式识别、科学文献、自然图像以及复杂场景中的具身智能等多种任务。
DeepSeek是国产的一个超强大模型,尤其是最近发布的DeepSeek-Coder特别厉害,在代码生成方面表现突出。不过今天重点不是讲代码,而是它在生成文档方面的超强本领。跟其他AI不一样的是,DeepSeek不仅能生成内容,还能直接输出格式化的Word文档,包括目录、标题层级、图表、页眉页脚啥的都能搞定。这货是免费的!你现在就...
DeepSeek 发展历程 2023年7月:DeepSeek成立,总部位于杭州。2023年11月2日:发布首个开源代码大模型 DeepSeek Coder,支持多种编程语言的代码生成、调试和数据分析任务。2023年11月29日:推出参数规模达670亿的通用大模型 DeepSeek LLM。2024年5月7日:发布第二代开源混合专家(MoE)模型 DeepSeek-V2,总参数达 ...
这种灵活性不仅允许开发者根据具体应用场景调整模型,还促进了社区的创新和协作。例如,开发者可以在 DeepSeek 的基础上开发专用模型,如DeepSeek Coder(用于代码生成和补全)或DeepSeek Translator(用于多语言翻译),从而满足特定领域的复杂需求。 此外,开源还意味着开发者可以深入了解模型的工作原理,从而更好地调试和优化...
3. DeepSeek-Coder 定位:代码生成与理解的代码大模型。 参数规模: DeepSeek-Coder-1.3B/6.7B/33B:不同参数规模适配不同场景。 优势: 多语言支持:覆盖Python、Java、C++等主流编程语言。 长上下文窗口:支持16K token上下文,适合处理大型代码库。 代码补全与调试:在HumanEval等评测中表现接近GPT-4,生成代码准确率高...
② 2023.11 国内 深度求索发布开源大模型DeepSeek Coder,免费商用、完全开源 ③ 2024年5月,该公司发布开源模型DeepSeek V2,将推理成本降低近百倍,一跃成名,也引起了阿里、百度等大厂纷纷宣布降价。 ④ 2024年12月26日,全新系列模型DeepSeek-V3发布,在大模型主流榜单中位居前列。