* 戳上方蓝字“开源先锋”关注我
推荐阅读:
《3.4K star! 推荐一款优雅的便签软件,专为程序员打造!》
大家好,我是开源君!
前段时间,国内的月之暗面公司开放了他们的 Kimi 模型,可以说是非常的火爆,使用体验和结果感觉都还非常的不错。
而后 Kimi 又开放了 API 接口,新用户注册后会有一定的免费额度。如果赠送的额度也用完了,还想继续白嫖体验的话,有啥好渠道吗?
真凑巧,今天在GitHub上开源君就发现了这样的一款开源项目 – kimi-free-api
。
项目简介
kimi-free-api
顾名思义,就是免费使用kimi API嘛,支持以下功能:
-
高速流式输出:实时生成文本,满足各种创作需求。 -
联网搜索:整合搜索引擎,足不出户获取海量信息。 -
长文档解读:轻松理解长篇大论,快速把握文章要点。 -
图像解析:从图像中提取信息,洞察先机。 -
多轮对话:与模型进行自然流畅的对话,享受智能交互体验。
据作者介绍,以上与ChatGPT接口完全兼容。
同时,作者也声明,该项目纯粹研究交流学习性质,仅限自用。大家也是且用且珍惜,别用力过猛了。
短短一个多月的时间,就收获了1.6K star!
性能特色
-
零配置部署:无需繁琐配置,即可轻松使用。 -
多路token支持:支持多个用户同时使用,满足团队协作需求。 -
自动清理会话痕迹:保护我们的隐私安全。 -
高速响应:模型响应速度快,能够实时生成文本,提供流畅的使用体验。 -
强大能力:支持多种功能,满足对大文模型的各种需求。 -
稳定可靠:平台运行稳定可靠,提供优质的服务。
安装部署
项目支持多种部署方式,包括本地部署、docker/Render/Vercel/Zeabur 部署
等等。
例如,docker安装部署
docker run -it -d --init --name kimi-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest
Docker-compose部署
version: '3'
services:
kimi-free-api:
container_name: kimi-free-api
image: vinlic/kimi-free-api:latest
restart: always
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai
再如本地部署,需要先安装好Node.js环境并且配置好环境变量,而后执行下面的指令:
npm i #安装依赖
npm i -g pm2 安装PM2进行进程守护
npm run build #编译构建
pm2 start dist/index.js --name "kimi-free-api" #启动服务
pm2 logs kimi-free-api #查看服务实时日志
pm2 reload kimi-free-api #重启服务
pm2 stop kimi-free-api #停止服务
上述安装部署后,还要要一些提前做接入准备。
访问kimi的官网,获取refresh_token
。
进入kimi,打开一个对话,通过F12开放者工具,按照Application > Local Storage路径找到refresh_token的值,即为项目中Authorization的Bearer Token值。
如果refresh_token是一个数组,可以用.拼接起来。
关于多帐号接入的问题,因为kimi一般的账号每3小时内只能进行30轮长文本的问答(短文本不限),如果需要使用多个账号,可以将这些账号的refresh_token拼接使用,请求服务每次会从里面挑选一个。:
格式如下:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
项目展示
项目首页
介绍自己
多轮对话
联网搜索
文档解读
图像解析
注意:
Kimi-Free-API 仅供个人学习和研究使用,禁止用于商业目的。Kimi-Free-API 的服务可能会受到限制,请酌情使用。
总的来说,Kimi-Free-API
是一个功能强大、易于使用的开源项目,可以帮助我们快速构建各种基于 KIMI AI 的应用。感兴趣的可以试试。
开源君再次友情提醒:该项目仅供个人学习和研究使用,禁止用于商业目的。否则,可能会受到限制,请酌情使用。
更多项目细节,可以自行到项目地址进行查看:
项目地址:
https://github.com/LLM-Red-Team/kimi-free-api
本内容观点仅代表发布作者本人观点立场,欣文网平台只做信息内容展示和存储。发布作者:全网转载,转转请注明出处:https://www.xinenw.com/4208.html