爱芯通元混合精度NPU 以算子为原子指令集的AI计算处理器爱芯通元NPU采用多线程异构多核设计,实现算子、网络微结构、数据流和内存访问优化,高效支持混合精度算法设计,natively支持Transformer网络结构,为大模型在边缘侧、端侧的应用提供良好的基础。 经过多代产品的量产和客户反馈,并结合行业前沿技术的发展趋势之下,爱芯通元...
SmolVLM 选用了最小的 256M 的版本,分别基于 爱芯派Pro(AX650N)和 爱芯派2(AX630C)完成了适配,再次体现出爱芯通元NPU高效运行 Transformer 模型的优势。让 VLM 在智能眼镜类似的穿戴设备上本地运行成为可能。 性能 SmolVLM-256M, w8a16AX630CAX650N Image Encoder, 512x512 800 ms 110 ms Prefill 180 ...
内置 爱芯通元NPU 的 M.2算力卡适配SPACEMIT M1 社区开发板,并顺利运行 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B。 模型名称SPACEMIT M1SPACEMIT M1 + M.2卡 DeepSeek-R1-1.5B 5.5 tokens/s 17 tokens/s(还有优化空间) DeepSeek-R1-7B 1.3 tokens/s 4.0 tokens/s(还有优化空间)...
当前,AI芯片行业竞争已从单纯算力比拼转向场景化适配能力。爱芯元智以“普惠AI造就美好生活”为使命,通过爱芯通元NPU与RISC-V产业链深度协同,成为驱动行业从“云端集中”迈向“边缘智能”的关键力量。 因此从今年开始,爱芯通元NPU IP正式启动商业授权服务,欢迎RISC-V产业链中感兴趣的朋友来咨询。 感谢: AXCL项目组小...
当前,AI芯片行业竞争已从单纯算力比拼转向场景化适配能力。爱芯元智以“普惠AI造就美好生活”为使命,通过爱芯通元NPU与RISC-V产业链深度协同,成为驱动行业从“云端集中”迈向“边缘智能”的关键力量。 因此从今年开始,爱芯通元NPU IP正式启动商业授权服务,欢迎RISC-V产业链中感兴趣的朋友来咨询。
当前,AI芯片行业竞争已从单纯算力比拼转向场景化适配能力。爱芯元智以“普惠AI造就美好生活”为使命,通过爱芯通元NPU与RISC-V产业链深度协同,成为驱动行业从“云端集中”迈向“边缘智能”的关键力量。 因此从今年开始,爱芯通元NPU IP正式启动商业授权服务,欢迎RISC-V产业链中感兴趣的朋友来咨询。
刘建伟介绍,爱芯通元AI处理器在高中低三档算力中已完成布局,并在智慧城市和辅助驾驶两个领域实现了规模化量产,能效比较GPGPU芯片提升了一个数量级,而在以文搜图、通用检测、以图生文、AI Agent等通用大模型应用中,爱芯通元AI处理器也可以让AI开发者以更低的成本进行高效开发。AI处理器的应用前景如何?论坛上,...
在“AIoT与ChatGPT”专题论坛上,爱芯元智联合创始人、副总裁刘建伟受邀做《爱芯元智AX650N Transformer端边落地平台》主题演讲,正式公布了企业核心技术混合精度NPU的中文名“爱芯通元®”,并介绍了第三代SoC芯片AX650N在端侧、边缘侧部署Transformer的领先优势。
7月5日,爱芯元智官微发文称,在上海举办的世界人工智能大会(WAIC)上,爱芯元智正式发布“爱芯通元AI处理器”。爱芯通元AI处理器的核心是算子指令集和数据流微架构,底层采用了可编程数据流的微架构,来提高能效和算力密度。同时它的灵活性也保证了算子指令集的完备性,支撑各种AI的应用,有效降低了AI应用的开发及运维成本...
熟悉爱芯通元NPU的网友很清楚,从去年开始我们在端侧多模态大模型适配上一直处于主动紧跟的节奏。先后适配了国内最早开源的多模态大模MiniCPM V 2.0,上海人工智能实验室的书生多模态大模型 InternVL2.5-1B/8B/MPO,Huggingface推出的全球最小多模态大模型SmloVLM-256M。为工业界提供了离线部署多模态大模型(VLM)实现图...