广告投放

Groq携手Hugging Face挑战云服务巨头,AI 推理速度上新台阶

目录

    近日,人工智能推理初创公司 Groq 宣布了两项重磅消息,意在挑战亚马逊云服务(AWS)和谷歌等传统云计算服务提供商。Groq 现在支持阿里巴巴的 Qwen332B 语言模型,并提供其完整的131,000-token 上下文窗口能力,这一技术优势在当前快速推理提供商中无出其右。同时,Groq 也成为了 Hugging Face 平台的官方推理提供商,这意味着其技术将接触到全球数百万开发者。

    Groq携手Hugging Face挑战云服务巨头,AI 推理速度上新台阶

    Groq 对131,000-token 上下文窗口的支持解决了 AI 应用中一个核心瓶颈。一般推理服务商在处理较大上下文窗口时面临速度和成本的挑战,而 Groq 则通过独特的语言处理单元(LPU)架构,专门为 AI 推理设计,显著提高了处理效率。根据独立基准测试机构 Artificial Analysis 的测评,Groq 的 Qwen332B 部署速度达到了每秒535个 token 的处理能力,能够实现实时文档处理和复杂推理任务。

    Groq 的 Hugging Face 集成将为其带来更广阔的开发者生态圈,Hugging Face 作为开源 AI 开发的首选平台,已经拥有数十万个模型和每月数百万的开发者用户。开发者可以直接在 Hugging Face 的 Playground 或 API 中选择 Groq 作为推理提供商,使用费用将计入其 Hugging Face 账户。此次合作被认为是使高性能 AI 推理更加普及的重要一步。

    面对日益激烈的市场竞争,Groq 的基础设施扩展计划也备受关注。Groq 目前的全球基础设施已覆盖美国、加拿大和中东地区,处理能力达到每秒超过2000万个 token。随着市场需求的不断增长,Groq 计划继续扩展其基础设施,尽管未透露具体细节。

    然而,Groq 在激烈的市场中能否维持性能优势、应对 AWS、谷歌等巨头的压力,还有待观察。尽管 Groq 在推理市场中以激进的定价策略吸引用户,但也引发了关于长期盈利能力的讨论。随着企业对 AI 应用的需求不断上升,Groq 希望通过规模化运营来实现盈利目标。

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

    给TA打赏
    共{{data.count}}人
    人已打赏
    广告位招租919838898
    0 条回复 A文章作者 M管理员
      暂无讨论,说说你的看法吧
    个人中心
    购物车
    优惠劵
    今日签到
    有新私信 私信列表
    搜索