热点排行
    边缘云论坛»论坛 云计算 GPU云主机 查看内容

    0 评论

    0 收藏

    分享

    OpenAI联手博通和台积电,自研AI芯片降低成本!

    随着AI应用场景的不断扩展,计算能力的需求急剧上升,超额的算力支出对任何一家人工智能企业来说都是巨大的挑战。作为AI领域的明星企业,OpenAI也在积极探索多样化芯片的供应渠道,降低算力成本。

    据10月30日路透社消息,OpenAI正携手博通(Broadcom)和台积电开发首款自研 AI 芯片,并在英伟达芯片的基础上增添 AMD 芯片,以应对急剧扩张的基础设施需求。


    要知道,AI芯片是支撑AI模型训练和AI应用落地的重要基础。目前市场上,英伟达、AMD等芯片厂商提供的GPU虽然性能强大,但成本昂贵且供不应求。通过自研定制AI芯片,OpenAI能够更好地针对自己的业务需求进行优化,从而提升AI训练和推理的效率,建立OpenAI的市场竞争力。

    中小企业和个人用户也需要高质量算力进行AI训练和AI推理,可以优先选择算力租赁平台,例如通过算力云平台在云端访问GPU服务器实现AI模型的训练、推理和运行。


    目前算力云平台已在多所城市部署数据中心,为海内外高校、企业和个人用户提供算力租用服务。平台目前有 RTX 4090/3090/3080/2080Ti 充足的显卡在多地域可租用,在杭州、西安、北京、成都、济南等城市还有专门适用于深度学习推理的 NVIDIA Tesla T4 和 NVIDIA V100S 可租用。双十一期间,算力云推出朋友圈集赞活动,参与者可获得对应奖励金!高端算力显卡更有限时降价活动,低至75折!


    当然,自研芯片并非易事,需要大量的资金投入、技术积累以及人才支持。对于像OpenAI这样的人工智能企业,跨界涉足硬件领域无疑是一个大胆而冒险的决定。

    早先OpenAI就曾计划建造“晶圆厂”网络,全面掌握芯片制造,奈何融资不成功,计划难以实现。

    作为芯片需求大户,OpenAI结合内部研发和外部合作,转向探索自研定制芯片。目前,OpenAI已组建了约 20 人的芯片团队,团队核心成员包括曾在谷歌负责开发 Tensor 处理单元( TPU )的 Thomas Norrie 和 Richard Ho 。同时借助博通,OpenAI与台积电确定了制造产能,预计 2026 年推出首款定制芯片,但时间表或有变动。

    OpenAI自研AI芯片的想法和行动不仅有助于确保算力供应的稳定性,还能让OpenAI更加灵活地应对市场变化和技术革新。至于这一想法能否成功落地,还要时间来证明。

    以上是算力云今日内容分享,对AI行业资讯感兴趣的朋友可以多多关注我们!

    回复

    举报

    全部回复
    暂无回帖,快来参与回复吧
    admin
    管理员
    主题 114
    回复 0
    粉丝 0