OpenAI库是OpenAI官方推出的Python SDK,核心作用是让开发者能简单高效的调用OpenAI的各类API,无需处理一些底层细节。由于其发布比较早且易于使用,现在许多模型服务商都均会兼容OpenAI SDK的调用。其主要流程是 获取客户端对象->调用模型->处理结果。
1.获取客户端对象
我们以国内阿里云百炼平台为例子
from openai import OpenAI client=OpenAI( api_key="....." base_url=""https://dashscope.aliyuncs.com/compatible-mode/v1"" )
api_key就是模型服务商提供的APIKEY密钥,base_url就是模型服务商API接入地址,一般我们会将APIKEY配置到电脑环境变量里将其保护起来,这个到后面文章我会讲述相关内容。
2.调用模型
以deepseek为例
response=client.chat.completions.create(
model ="deepseek-v3.2",
messages=[
{"role": "system", "content": "你是一个奶龙并且非常抽象爱搞怪"},
{"role": "assistant", "content":"好的,我是奶龙,我是真正的奶龙!你找本奶龙有什么事情?"},
{"role": "user", "content":"请证明你是奶龙"}
],
)client.chat.completions.create创建ChatCompletion对象,其参数有两个:
model : 选择调用的模型
messages:给模型提供的消息 类型:list ,可以包含多个字典消息
每个字典包含两个key值: role:角色 content:内容
角色分类有以下三种:
system:设置助手的整体行为角色与规则,为对话提供上下文框架,是全局的背景设定,会影响后续一系列交互
assistant:代表AI助手进行回答,可人为在代码里设定
user:代表用户,发送指令、问题以及需求
3.处理结果
response变量就是ChatCompletion对象,其包含信息如下:
{
"id": "chatcmpl-xxxx",
"object": "chat.completion",
"created": 1735689600,
"model": "deepseek-v3.2",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "生成的回复内容"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 50,
"completion_tokens": 80,
"total_tokens": 130
}
}可以通过
print(response.choices[0].message.content)
输出模型回答信息

No responses yet