Cerebras推出全球最快的AI推理工具!速度远超英伟达,IPO指日可待
any
发布于 2024-8-29 17:16:52
阅读 230
查看全部
今日算力租赁平台算力云,再为大家带来一则人工智能计算领域的大事件。
就在今天,Cerebras Systems,一家2016年成立于美国硅谷的AI芯片制造商,宣布推出了全球最快的AI推理解决方案“Cerebras Inference”。
据IT之家消息,Cerebras Systems此次推出的AI推理解决方案,能为Llama 3.1 8B 模型提供每秒 1800 个 token,为 Llama 3.1 70B 模型提供每秒 450 个 token,远超英伟达(NVIDIA)GPU AI 推理解决方案的20倍!
据IT之家消息,Cerebras Systems此次推出的AI推理解决方案,能为Llama 3.1 8B 模型提供每秒 1800 个 token,为 Llama 3.1 70B 模型提供每秒 450 个 token,远超英伟达(NVIDIA)GPU AI 推理解决方案的20倍!
可想而知,作为一家人工智能计算的初创企业,超越AI芯片的行业领袖英伟达,推出一款全球最快的AI推理工具,在人工智能计算需求爆棚的时代,Cerebras Inference将会引起多大的关注!
在AI计算需求指数级增长的时代,算力租赁平台 算力云(Suanlix.Cn)平台已在福建、广东、浙江、陕西、甘肃、山东、香港全国多所城市部署数据中心,提供 高性能的算力租用服务,以及GPU云主机和CPU云主机的租用服务。近期为感谢新老用户,还推出实名认证享受折上折活动,适合有AI推理、人工智能计算、深度学习需求的用更令人惊讶的是,Cerebras Inference起价每百万个token仅需支付10美分,为人工智能工作负载提供100倍更高的性价比!
据IT之家消息,Cerebras Inference 提供以下三个层级:
- 免费层为登录的任何人提供免费的 API 访问和慷慨的使用限制。
- 开发者层专为灵活的无服务器部署而设计,为用户提供一个 API 端点,其成本只是市场上替代方案的一小部分,Llama 3.1 8B 和 70B 模型的定价分别为每百万 token 10 美分和 60 美分。
- 企业层提供微调模型、定制服务级别协议和专门支持。企业可以通过 Cerebras 管理的私有云或客户场所访问 Cerebras Inference,非常适合持续的工作负载。
高效率、低成本的AI推理工具,即将掀起广泛的讨论度,这位在AI计算领域升起的冉冉之星,能否真正撬动英伟达的市场地位呢?
在今年8月初,就有知情人士透露消息,Cerebras已秘密申请在美国IPO,并选择花旗集团作为其IPO的牵头投行,后来又将巴克莱银行纳入其IPO承销银行阵容,Cerebras计划将在10月首次公开募股(IPO)。
当更具有成本和效率优势的AI推理方案出现,英伟达在AI领域的霸主地位会受到挑战吗?答案是必然的。
以上是算力云今日内容分享,感兴趣的朋友可以多多关注算力云!
|
|
|
|
|