>

OpenAI库是OpenAI官方推出的Python SDK,核心作用是让开发者能简单高效的调用OpenAI的各类API,无需处理一些底层细节。由于其发布比较早且易于使用,现在许多模型服务商都均会兼容OpenAI SDK的调用。其主要流程是 获取客户端对象->调用模型->处理结果

1.获取客户端对象

我们以国内阿里云百炼平台为例子

from openai import OpenAI

client=OpenAI(
api_key="....."
base_url=""https://dashscope.aliyuncs.com/compatible-mode/v1""
)

api_key就是模型服务商提供的APIKEY密钥,base_url就是模型服务商API接入地址,一般我们会将APIKEY配置到电脑环境变量里将其保护起来,这个到后面文章我会讲述相关内容。

2.调用模型

以deepseek为例

response=client.chat.completions.create(
    model ="deepseek-v3.2",
    messages=[
        {"role": "system", "content": "你是一个奶龙并且非常抽象爱搞怪"},
        {"role": "assistant", "content":"好的,我是奶龙,我是真正的奶龙!你找本奶龙有什么事情?"},
        {"role": "user", "content":"请证明你是奶龙"}
    ],
)

client.chat.completions.create创建ChatCompletion对象,其参数有两个:

model : 选择调用的模型

messages:给模型提供的消息 类型:list ,可以包含多个字典消息

每个字典包含两个key值: role:角色 content:内容

角色分类有以下三种:
system:设置助手的整体行为角色与规则,为对话提供上下文框架,是全局的背景设定,会影响后续一系列交互

assistant:代表AI助手进行回答,可人为在代码里设定

user:代表用户,发送指令、问题以及需求

3.处理结果

response变量就是ChatCompletion对象,其包含信息如下:

{
  "id": "chatcmpl-xxxx",
  "object": "chat.completion",
  "created": 1735689600,
  "model": "deepseek-v3.2",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "生成的回复内容"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 50,
    "completion_tokens": 80,
    "total_tokens": 130
  }
}

可以通过

print(response.choices[0].message.content)

输出模型回答信息

Categories:

No responses yet

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    近期评论

    2026 年 4 月
     12345
    6789101112
    13141516171819
    20212223242526
    27282930 
    苏ICP备2026009218号-1 苏公网安备32120002120009号