”9月19日,阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在2024云栖大会上表示,阿里云正在以前所未有的强度投入AI技术研发和基础设施建设。根据中国信通院数据,截至2023年底,中国算力总规模达到230EFLOPS,存力总规模约1200EB。过去一年,阿里云投资新建了大量的AI算力,但吴泳铭坦言,“还是远远不能满足客户的旺...
阿里云构建了完整的 AI 基础设施,来满足训练和推理的规模化发展需求: 计算、存储、网络和安全等产品和服务,是坚实的基础;在此之上,通过先进的容器化技术进行算力的编排和管理;进而,通过 AI 智算平台 PAI 来进行任务调度、编译优化,实现弹性扩展、容错以及迁移等能力,打造完整的阿里云 AI 技术服务栈。 在这个服务栈...
长期投资基础设施,阿里云的 AI 基建护城河初现 坦率来说,云计算公司天然具有 AI 基建的优势,毕竟拥有了庞大的数据中心和众多云服务运营经验。对阿里云来说,过去几年围绕服务器、计算、网络、存储等基础设施的长期投资,以及大量应用到实际场景中的自研技术,无疑让其拥有了更多底气。以计算为例,阿里云此次推出面向...
“未来,数据中心就是一台超级计算机,为每个AI和应用提供高性能、高效的算力服务。”9月19日,阿里云CTO周靖人在2024杭州云栖大会上表示,头部云服务商正在围绕AI时代,树立一个AI基础设施的新标准,全面升级从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系。不同于传统IT时代,AI时代对基础...
在正在举行的2024杭州云栖大会上,阿里云CTO周靖人表示阿里云正在围绕AI时代,全面投入升级AI大基建。在上线磐久AI服务器、推出GPU容器算力的同时,发布最强开源模型Qwen2.5系列,同时上架语言、音频、视觉等100多款全模态模型,并宣布通义千问三款主力模型再次大幅降价,最高降幅85%,百万tokens价格低至0.3元。“这...
阿里云CTO(首席技术官)周靖人9月19日在云栖大会宣布,目前阿里云的万卡算力集群可以实现大于99%以上连续训练有效时长,模型算力利用率可提升20%以上,可支持单集群十万卡级别AI算力规模。 提升大模型训练效率之后,还需要持续提升大模型推理效率——这会直接影响企业使用大模型的成本。
大模型产业也不例外。9月19日阿里云在云栖大会上宣布通义千问三款主力模型再降价的同时,也宣布将要在AI大基建领域全面投入,阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭称,全世界先进模型竞争的投入门槛,将达到数十亿、数百亿美金的级别。在持续降价与加大投入之间,盈利看起来并不是阿里云等诸多参与降价潮的...
2024云栖大会,阿里云公布了AI大基建的系列进展,全面升级从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系,让数据中心成为一台超级计算机。 基于迭代更新的阿里云AI Infra,通义大模型也迎来性能媲美GPT-4o的基模升级,新一代开源模型Qwen2.5再登全球开源大模型王座,语言、音频、视觉等100多款全...
全面投入升级AI大基建 阿里云CTO周靖人在演讲中提到,阿里云正在围绕AI时代,树立一个AI基础设施的新标准,全面升级从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系,让数据中心成为一台超级计算机,为每个AI和应用提供高性能、高效的算力服务。
阿里云CTO周靖人表示,阿里云正在围绕AI时代,树立一个AI基础设施的新标准,全面升级从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系,让数据中心成为一台超级计算机,为每个AI和应用提供高性能、高效的算力服务。 大会现场,通义大模型迎来了年度重磅发布。基础模型升级,性能媲美GPT-4o,发布最强开...