API文档

了解如何集成和使用API服务

简介

风屿汐 提供了一个统一、高效的接口来访问多种先进的AI模型。我们的API支持文本生成、图像创建、语音处理等多种功能。

所有API请求都通过HTTPS进行,使用JSON格式传输数据。

快速上手步骤

1. 注册账号并登录控制台

2. 在令牌管理中创建一个API密钥,选择需要绑定的模型

3. 使用该API密钥调用对应的API接口

4. 在控制台查看使用日志和消耗统计

认证

您需要在请求头中包含API密钥来进行身份验证。获取您的API密钥后,将其添加到请求的Authorization头中:

Authorization: Bearer YOUR_API_KEY

API密钥可在控制台 → 令牌管理中创建和管理。创建密钥时必须选择一个绑定模型。

快速开始

以下示例演示如何使用API密钥调用聊天完成接口:

Node.js 示例

const response = await fetch('https://fengyuxi.com/v1/chat/completions', {
  method: 'POST',
  headers: {
    'Authorization': 'Bearer YOUR_API_KEY',
    'Content-Type': 'application/json'
  },
  body: JSON.stringify({
    model: 'gpt-4',
    messages: [{ role: 'user', content: 'Hello!' }]
  })
});

const data = await response.json();
console.log(data.choices[0].message.content);

cURL 示例

curl https://fengyuxi.com/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Python 示例

import requests

response = requests.post(
    'https://fengyuxi.com/v1/chat/completions',
    headers={'Authorization': 'Bearer YOUR_API_KEY'},
    json={
        'model': 'gpt-4',
        'messages': [{'role': 'user', 'content': 'Hello!'}]
    }
)
print(response.json()['choices'][0]['message']['content'])

聊天完成 API

POST /v1/chat/completions
参数 类型 描述
model string 要使用的模型ID
messages array 对话消息数组
temperature number 采样温度 (0-2)
max_tokens integer 最大生成token数

模型列表

获取所有可用模型的列表:

GET /v1/models

模型列表会持续更新,您也可以在 模型广场 中浏览所有可用模型及其详细信息。

第三方工具集成

风屿汐 完全兼容 OpenAI API 格式,您可以在任何支持 OpenAI API 的工具或平台中配置使用。只需将 Base URL 设置为 https://fengyuxi.com,并填入您的 API 密钥即可。

在 Cursor 中配置

Cursor 是一款 AI 驱动的代码编辑器,支持自定义 OpenAI 兼容 API:

# 1. 打开 Cursor Settings (Ctrl+Shift+P → Preferences: Open Settings)
# 2. 导航到 Models 部分
# 3. 在 OpenAI Base URL 中输入:
https://fengyuxi.com

# 4. 在 OpenAI Key 中输入你的 API 密钥
# 5. 点击 "Verify" 验证连接
# 6. 在 Model 列表中添加可用的模型名称

在 Trae 中配置

Trae IDE 支持自定义模型提供商,配置步骤如下:

# 1. 打开 Trae 设置 (设置 → 模型)
# 2. 找到"自定义 OpenAI"或"兼容 API"选项
# 3. 添加自定义端点:
API地址: https://fengyuxi.com/v1/chat/completions
API密钥: 你的API密钥
模型名称: 你的令牌绑定的模型名称

# 4. 保存配置并测试连接

在 OpenClaw / OpenCalw 中配置

OpenClaw 和 OpenCalw 等工具同样支持 OpenAI 兼容接口:

# 1. 打开工具设置面板
# 2. 找到 API 或 Provider 配置
# 3. 选择"OpenAI 兼容模式"
# 4. 填入以下信息:
Base URL: https://fengyuxi.com
API Key: 你的API密钥
默认模型: 你的令牌绑定的模型名称

使用 OpenAI SDK

您也可以直接在代码中使用 OpenAI 官方 SDK,只需修改 base URL 即可:

Python (openai 库)

from openai import OpenAI

client = OpenAI(
    base_url='https://fengyuxi.com',
    api_key='YOUR_API_KEY'
)

response = client.chat.completions.create(
    model='gpt-4',
    messages=[{'role': 'user', 'content': '你是什么模型?'}]
)
print(response.choices[0].message.content)

Node.js (openai 库)

const { OpenAI } = require('openai');

const client = new OpenAI({
    baseURL: 'https://fengyuxi.com',
    apiKey: 'YOUR_API_KEY'
});

const response = await client.chat.completions.create({
    model: 'gpt-4',
    messages: [{ role: 'user', content: '你是什么模型?' }]
});
console.log(response.choices[0].message.content);

使用 OpenAI SDK