type
status
date
slug
summary
tags
category
icon
password
KIMI AI Free 服务 | 免费的Kimi API
支持高速流式输出、支持多轮对话、支持联网搜索、支持长文档解读、支持图像解析,零配置部署,多路token支持,自动清理会话痕迹。
与ChatGPT接口完全兼容。
还有以下几个free-api欢迎关注:
阶跃星辰 (跃问StepChat) 接口转API step-free-api
阿里通义 (Qwen) 接口转API qwen-free-api
ZhipuAI (智谱清言) 接口转API glm-free-api
聆心智能 (Emohaa) 接口转API emohaa-free-api
免责声明
本组织和个人不接受任何资金捐助和交易,此项目是纯粹研究交流学习性质!
仅限自用,禁止对外提供服务或商用,避免对官方造成服务压力,否则风险自担!
仅限自用,禁止对外提供服务或商用,避免对官方造成服务压力,否则风险自担!
仅限自用,禁止对外提供服务或商用,避免对官方造成服务压力,否则风险自担!
项目地址 (此类项目建议Fork)
kimi-free-api
LLM-Red-Team • Updated Apr 10, 2024
在线体验
此链接仅临时测试功能,不可长期使用,长期使用请自行部署。
效果示例
验明正身
多轮对话
联网搜索
长文档解读
图像解析
响应流畅度一致
接入准备
从 kimi.moonshot.cn 获取refresh_token
进入kimi随便发起一个对话,然后F12打开开发者工具,从Application > Local Storage中找到
refresh_token
的值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN
如果你看到的
refresh_token
是一个数组,请使用.
拼接起来再使用。多账号接入
目前kimi限制普通账号每3小时内只能进行30轮长文本的问答(短文本不限),你可以通过提供多个账号的refresh_token并使用
,
拼接提供:Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
每次请求服务会从中挑选一个。
Docker部署
请准备一台具有公网IP的服务器并将8000端口开放。
拉取镜像并启动服务
查看服务实时日志
重启服务
停止服务
Docker-compose部署
原生部署
请准备一台具有公网IP的服务器并将8000端口开放。
请先安装好Node.js环境并且配置好环境变量,确认node命令可用。
安装依赖
安装PM2进行进程守护
编译构建,看到dist目录就是构建完成
启动服务
查看服务实时日志
重启服务
停止服务
接口列表
目前支持与openai兼容的
/v1/chat/completions
接口,可自行使用与openai或其他兼容的客户端接入接口,或者使用 dify 等线上服务接入使用。对话补全
对话补全接口,与openai的 chat-completions-api 兼容。
POST /v1/chat/completions
header 需要设置 Authorization 头部:
请求数据:
响应数据:
文档解读
提供一个可访问的文件URL或者BASE64_URL进行解析。
POST /v1/chat/completions
header 需要设置 Authorization 头部:
请求数据:
响应数据:
图像解析
提供一个可访问的图像URL或者BASE64_URL进行解析。
此格式兼容 gpt-4-vision-preview API格式,您也可以用这个格式传送文档进行解析。
POST /v1/chat/completions
header 需要设置 Authorization 头部:
请求数据:
响应数据:
注意事项
Nginx反代优化
如果您正在使用Nginx反向代理kimi-free-api,请添加以下配置项优化流的输出效果,优化体验感。
Token统计
由于推理侧不在kimi-free-api,因此token不可统计,将以固定数字返回!!!!!
Star History
- 作者:Doiiars
- 链接:https://notion.doiiars.com/article/kimi-ai-free-api
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。
相关文章