DeepSeek-R1 API
API应用详情
模型列表
DeepSeek版本 | 上下文长度 | 最大思维链长度(1) | 最大输出长度(2) | 参数规模(B) | 模型大小(约) |
---|---|---|---|---|---|
DeepSeek-R1 | 64K | 32K | 8K | 671 | FP8: 671GB |
(1) 最大思维链长度:是推理完整性与计算效率的关键参数,用户需根据具体任务和模型能力进行调整。
(2)最大输出长度:指模型生成的回复文本的最大字符数或令牌(Tokens)数量。
说明
目前平台支持DeepSeek模型:DeepSeek-R1满血版(FP8无量化版)。
API
Post
使用指南
请求地址:https://deepseek.alayanew.com/v1/chat/completions
请求参数(json)
请求示例
响应参数
响应示例
参数名称 | 参数值 | 类型 | 说明 | 是否必须 |
---|---|---|---|---|
messages | [{"role": "system", "content": "You are a helpful assistent."}, {"role": "user", "content": "你好"}] | List[object] | 包含对话历史描述的消息列表。 | 是 |
model | deepseek-r1 | string | 要使用的模型。 | 是 |
temperature | 1 | float | 默认为 1。表示要使用的采样温度(temperature),介于 0 ~ 2 之间。较高的值(如 0.8)会使输出更随机,而较低的值(如 0.2)则会使其更加专注和确定。 | 否 |
top_p | 1 | float | 默认为 1。一种称为“核心采样”的采样替代方法,其中模型考虑概率质量值在前 top_p 的标记的结果。因此,0.1 意味着仅考虑概率质量值前 10% 的标记。 | 否 |
n | 1 | int | 默认为 1。要生成的每个输入消息的聊天完成选项数量。 | 否 |
stream | false | bool | 是否为流式响应。 | 否 |
stop | [] | optional[string, List] | 默认为 null。API 最多将生成 4 个序列,这些序列将停止生成更多标记。 | 否 |
max_tokens | 1024 | int | 默认为 inf,表示最大生成 token 数。 | 否 |
presence_penalty | 0 | float | 默认为 0。介于 -2.0~2.0 之间的数字。正值会根据新标记在迄今为止的文本中出现的频率惩罚新标记,增加模型谈论新话题的可能性。 | 否 |
frequency_penalty | 0 | float | 默认为 0。范围在 -2.0~2.0 之间的数字。正值会根据其在文本中的现有频率惩罚新标记,从而减少模型重复同一行的可能性。 | 否 |
logit_bias | - | dict | 默认为 null。修改出现在完成中的指定标记的可能性。 | 否 |
代码示例
- curl
- Python
- GO
- JavaScript(react为例)
- Java
curl --location 'https://deepseek.alayanew.com/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer <your_access_token>' \
--data '
{
"stream": false,
"messages": [
{
"role": "user",
"content": "Please generate an essay"
}
],
"model": "deepseek-r1"
}
'
from openai import OpenAI
client = OpenAI(api_key="<your_access_token>", base_url="https://deepseek.alayanew.com/v1")
response = client.chat.completions.create(
model="deepseek-r1",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
max_tokens=1024,
temperature=0.7,
stream=False
)
print(response.choices[0].message.content)
package main
import (
"fmt"
"io/ioutil"
"net/http"
"strings"
)
func main() {
url := "https://deepseek.alayanew.com/v1/chat/completions"
method := "POST"
payload := strings.NewReader(`{
"messages": [
{
"content": "You are a helpful assistant",
"role": "system"
},
{
"content": "Hi",
"role": "user"
}
],
"model": "deepseek-r1",
"frequency_penalty": 0,
"max_tokens": 2048,
"presence_penalty": 0,
"response_format": {
"type": "text"
},
"stop": null,
"stream": false,
"stream_options": null,
"temperature": 1,
"top_p": 1,
"tools": null,
"tool_choice": "none",
"logprobs": false,
"top_logprobs": null
}`)
client := &http.Client{}
req, err := http.NewRequest(method, url, payload)
if err != nil {
fmt.Println(err)
return
}
req.Header.Add("Content-Type", "application/json")
req.Header.Add("Accept", "application/json")
req.Header.Add("Authorization", "Bearer <your_access_token>")
res, err := client.Do(req)
if err != nil {
fmt.Println(err)
return
}
defer res.Body.Close()
body, err := ioutil.ReadAll(res.Body)
if err != nil {
fmt.Println(err)
return
}
fmt.Println(string(body))
}
- axios
- fetch
const axios = require('axios');
let data = JSON.stringify({
"messages": [
{
"content": "You are a helpful assistant",
"role": "system"
},
{
"content": "Hi",
"role": "user"
}
],
"model": "deepseek-r1",//模型选择deepseek-r1 / deepseek-r1-lite
"frequency_penalty": 0,
"max_tokens": 2048,
"response_format": {
"type": "text"
},
"stop": null,
"stream": true,//使用流式传输
"temperature": 1,
"logprobs": false,
});
let config = {
method: 'post',
maxBodyLength: Infinity,
url: 'https://deepseek.alayanew.com/v1/chat/completions',//前端请注意跨域请求问题
headers: {
'Content-Type': 'application/json',
'Accept': 'application/json',
'Authorization': 'Bearer <your_access_token>'
},
data: data
};
axios(config)
.then((response) => {
console.log("返回信息", JSON.stringify(response.data));
})
.catch((error) => {
console.log("错误信息", error);
});
import React,{useState} from 'react'
const [requestData,setRequestData]=useState('')
let data = JSON.stringify({
"messages": [
{
"content": "You are a helpful assistant",
"role": "system"
},
{
"content": "Hi",
"role": "user"
}
],
"model": "deepseek-r1",//模型选择deepseek-r1 / deepseek-r1-lite
"frequency_penalty": 0,
"max_tokens": 2048,
"response_format": {
"type": "text"
},
"stop": null,
"stream": true,//可以自由选择是否为流式传输
"temperature": 1,
"logprobs": false,
});
try {
const response = await fetch('https://deepseek.alayanew.com/v1/chat/completions', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer <your_access_token>',//请在此处修改为你的API Key
},
body: JSON.stringify(data),
});
// 处理流式响应
const reader = response.body.getReader();
const decoder = new TextDecoder('utf-8');
let partialData = '';
const dataStream = data.stream
while (true) {
const { done, value } = await reader.read();
if (done) {
break;
}
partialData += decoder.decode(value, { stream: true });
if (dataStream) {//判断是否为流式响应
const lines = partialData.split('\n');
for (let line of lines) {
if (line.startsWith('data: ')) {
line = line.substring(6);
if (line === '[DONE]') {
break; // 结束流式响应
}
try {
const jsonData = JSON.parse(line);
const content = jsonData.choices[0]?.delta?.content;
if (content) {
console.log(content)//可以打印在控制台
setRequestData(prevData => prevData + content);//将消息存储在state中
}
} catch (e) {
console.error('Error parsing JSON:', e);
}
}
}
// 清空 partialData 以便处理下一个分块
partialData = '';
} else {
const jsonData = JSON.parse(partialData)
const content = jsonData.choices[0]?.message?.content ?? null;
if (content !== null) {
console.log(content);//可以打印在控制台
setRequestData(content);//将消息存储在state中
}
}
}
} catch (error) {
console.error('Final error:', error);
}
import okhttp3.*;
import java.io.IOException;
import java.util.concurrent.TimeUnit;
public class Test {
private static final String OPENAI_API_KEY = "<your_access_token>";
private static final String OPENAI_API_BASE = "https://deepseek.alayanew.com/v1/chat/completions";
public static void main(String[] args) {
OkHttpClient client = new OkHttpClient().newBuilder()
.connectTimeout(10, TimeUnit.SECONDS)
.readTimeout(10,TimeUnit.MINUTES)
.writeTimeout(10,TimeUnit.MINUTES)
.build();
MediaType mediaType = MediaType.parse("application/json");
RequestBody body = RequestBody.create(mediaType, "{\n \"messages\": [\n {\n \"content\": \"You are a helpful assistant\",\n \"role\": \"system\"\n },\n {\n \"content\": \"你是一个特级中学语文老师,特别擅长唐诗的研究,会高度模仿 李白、杜甫的作诗风格,还特别能接受别人的意见。\",\n \"role\": \"user\"\n }\n ],\n \"model\": \"deepseek-r1\",\n \"frequency_penalty\": 0,\n \"max_tokens\": 2048,\n \"presence_penalty\": 0,\n \"response_format\": {\n \"type\": \"text\"\n },\n \"stop\": null,\n \"stream\": false,\n \"stream_options\": null,\n \"temperature\": 1,\n \"top_p\": 1,\n \"tools\": null,\n \"tool_choice\": \"none\",\n \"logprobs\": false,\n \"top_logprobs\": null\n}");
Request request = new Request.Builder()
.url(OPENAI_API_BASE)
.method("POST", body)
.addHeader("Content-Type", "application/json")
.addHeader("Accept", "application/json")
.addHeader("Authorization", "Bearer " + OPENAI_API_KEY)
.build();
try {
Response response = client.newCall(request).execute();
System.out.println(response.body().string());
}catch (IOException e){
e.printStackTrace();
}
}
}
重要
当您按照上述示例进行操作时,请将your_access_token
替换为您实际获得的API Key。这一步骤是必要的,以确保您的请求能够被服务器正确识别和授权。
API错误码及解决办法
- 400
- 401
- 404
- 415
- 500
- 503
Reason:请求体格式错误。
Solution:请根据错误信息提示修改请求体。
Reason:API Key错误,认证失败。
Solution:请检查您的API Key是否正确。
Reason:请求错误。
Solution:请检查URL或模型名称是否正确。
Reason:请求头Content-Type错误,格式不支持。
Solution:请将请求头Content-Type设置为application/json。
Reason:服 务器故障。
Solution:请等待后重试。若问题一直存在,请联系我们解决。
Reason:请求频繁或服务器繁忙,导致服务不可用。
Solution:您的请求超过速率限制,或服务器繁忙,请稍后重试您的请求。