跳到主要内容

DeepSeek-R1 API

API应用详情

模型列表

DeepSeek版本上下文长度最大思维链长度(1)最大输出长度(2)参数规模(B)模型大小(约)
DeepSeek-R164K32K8K671FP8: 671GB

(1) 最大思维链长度:是推理完整性与计算效率的关键参数,用户需根据具体任务和模型能力进行调整。

(2)最大输出长度:指模型生成的回复文本的最大字符数或令牌(Tokens)数量。

说明

目前平台支持DeepSeek模型:DeepSeek-R1满血版(FP8无量化版)。

API

Post
使用指南
请求地址:https://deepseek.alayanew.com/v1/chat/completions
参数名称参数值类型说明是否必须
messages
[{"role": "system", "content": "You are a helpful assistent."}, {"role": "user", "content": "你好"}]
List[object]
包含对话历史描述的消息列表。
model
deepseek-r1
string
要使用的模型。
temperature
1
float
默认为 1。表示要使用的采样温度(temperature),介于 0 ~ 2 之间。较高的值(如 0.8)会使输出更随机,而较低的值(如 0.2)则会使其更加专注和确定。
top_p
1
float
默认为 1。一种称为“核心采样”的采样替代方法,其中模型考虑概率质量值在前 top_p 的标记的结果。因此,0.1 意味着仅考虑概率质量值前 10% 的标记。
n
1
int
默认为 1。要生成的每个输入消息的聊天完成选项数量。
stream
false
bool
是否为流式响应。
stop
[]
optional[string, List]
默认为 null。API 最多将生成 4 个序列,这些序列将停止生成更多标记。
max_tokens
1024
int
默认为 inf,表示最大生成 token 数。
presence_penalty
0
float
默认为 0。介于 -2.0~2.0 之间的数字。正值会根据新标记在迄今为止的文本中出现的频率惩罚新标记,增加模型谈论新话题的可能性。
frequency_penalty
0
float
默认为 0。范围在 -2.0~2.0 之间的数字。正值会根据其在文本中的现有频率惩罚新标记,从而减少模型重复同一行的可能性。
logit_bias
-
dict
默认为 null。修改出现在完成中的指定标记的可能性。

代码示例

curl --location 'https://deepseek.alayanew.com/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer <your_access_token>' \
--data '
{
"stream": false,
"messages": [
{
"role": "user",
"content": "Please generate an essay"
}
],
"model": "deepseek-r1"
}
'
重要

当您按照上述示例进行操作时,请将your_access_token替换为您实际获得的API Key。这一步骤是必要的,以确保您的请求能够被服务器正确识别和授权。

API错误码及解决办法

Reason:请求体格式错误。

Solution:请根据错误信息提示修改请求体。