性能推理框架BladeLLM进行加速。
2月9日,企鹅云宣布,通过其高性能应用服务HAI,开发者仅需3分钟就能一键部署并调用万象,从轻量版的1.5B参数到满血版的671B参数,应有尽有,提供了极大的灵活性。
两天后,更是贴心地推出了包含全尺寸模型的开发者大礼包。
2月10日,HW云宣布与硅基流动合作,基于HW云昇腾云服务联合首发上线万象推理服务,并强调凭借自研推理加速引擎,其效果可持平全球高端GPU部署的模型,甚至更佳。
同时,万象大模型正式上线昇腾社区,更重要的是,基于原生鸿蒙操作系统的小艺助手App已经接入了万象!
这意味着,万象开始触达数以亿计的终端用户。
紧接着,无问芯穹、青云科技、PPIO派欧云、云轴科技等一批独立云厂商也迅速跟进,纷纷宣布适配及上架万象大模型服务。
国内的云市场,几乎在短短一周内,完成了一次全面的万象化升级。
而海外的动作,甚至比国内还要更快一些。
2月8号,芯片巨头英伟达宣布万象大模型登陆其NVIDIA NIM推理微服务,并公布了在最新HGX H200系统上惊人的处理速度。
它的老对手AMD也毫不示弱,几乎同时宣布已将万象大模型集成到其Instinct MI300X GPU上,并进行了针对性的AI推理优化。
两大全球云服务巨头,亚马逊AWS与微软Azure也迅速下场。
从2月9日起,AWS的用户可以在Amazon Bedrock与Amazon SageMaker AI中便捷地部署万象。
AWS官方表态更是意味深长,称这是为了满足客户需求,保持在AI创新最前沿的必然选择。
当地时间2月10日,微软的宣布则更具震撼力。
万象正式在Azure AI Foundry与GitHub上提供。
更关键的是,微软宣布其客户能够使用万象大模型的精简版本,在最新的AI电脑Copilot+PC上本地运行!
这意味着万象借助微软的硬件,直接进入了个人计算的核心领域。
这一连串令人眼花缭乱的消息,通过科技新闻、财经报道、自媒体解读,迅速传递给了国内的广大网友。
微博上,相关话题引起数以百万记的讨论。
本章未完,请点击下一页继续阅读!