Groq Whisper 负载均衡 API

功能

  • 可以实现免费更高负载的 Groq Whisper 的请求,以满足个人使用或开发阶段的调用需求。

背景

因为当时正在尝试做一款需要用到 STT(Speak to Text) 的服务的产品,最后决定采用 Groq 托管的 Whisper Large V3 的版本,原因是 Groq 的 Whisper Large V3 速度非常快(官方公布是速度是 OpenAI 的 164x),并且价格远低于 OpenAI 提供的价格。

但是当时遇到的问题是 Groq 没有足够大的量,需要通过开发者申请后才可以分配更多的资源进行按量付费。而免费的开发者用量和请求数量限制都不足以支撑度过开发阶段。于是正在申请的过程当中,为了先使用上,于是组建了个小群,跟一些开发者和爱好者朋友,一起贡献了大家的 API Key,构建了这个负载均衡池。

并为其命名为:Whisper 自由计划!

可以基本实现个人的大量使用以及开发者用户的开发阶段的请求,并且完全免费。

请求方式和数据结构与 OpenAI Whisper 完全兼容。

注:

1.由于我目前已经拿到了 Groq 的开发者按量付费的权限,所以个人退出当前的计划,但是该计划还是正在正常进行。

2.目前 Groq 已经推出了更快的 Whisper Large V3 Turbo 模型服务,如果大家用量比较大,也会后续提供一些升级的支持。

使用方式

1.可以通过添加 Erlich 的微信:geekthings,的方式来请求使用该 API,需要说明使用场景和大概的用量。

2.不可进行商业使用,仅限个人使用。

3.可以与 OneAPI 等产品结合使用,配置为其中一个渠道,整合进入到当前的工作流当中。