使用阿里云百炼进行DeepSeek模型调用实战

Written by 30115776@qq.com

阿里云百炼

阿里云百炼 是一个综合性人工智能开发与管理平台,提供包括模型推理、批量处理、插件开发及系统观测在内的全链路服务。核心模块包括模型中心的应用部署、数据中心的智能分析工具,以及支持第三方模型(如DeepSeek-V3文本生成模型)的接入与管理。百炼平台通过API和可视化工具简化了AI开发流程,支持企业级的权限与资源管理。

为什么选择百炼

  • 丰富的模型选择:百炼提供了通义千问商业版的官方API接口,并且支持多个主流第三方大模型,涵盖文本、图像、音视频等多个模态,还提供行业定制化模型。
  • 便捷的开发工具:百炼平台提供了Prompt自动优化、知识库管理、函数调用、流程编排、模型定制等功能,帮助用户快速构建生产级大模型应用。
  • 更低的使用成本:相较于本地部署大模型,使用百炼平台无需前期投入大量硬件设备,按实际使用量计费,显著降低了成本。
  • 严格的数据保护:阿里云严格保护用户的数据隐私,所有传输的数据都会经过加密,确保数据安全。

开始使用百炼

方式一:文本对话

通过文本对话与大模型进行交互,这是大模型常见的Chat功能,支持切换其他模型以及第三方模型。

方式二:文本调试

选择模型进行调试,以获取最合适的模型提示和输出设置。

方式三:API调用

以下是如何使用百炼平台调用第三方大模型的API的步骤:

  1. 注册账号:如果没有阿里云账号,您需要先注册阿里云账号。

  2. 开通百炼:前往百炼控制台,如果页面顶部显示以下消息,您需要开通百炼的模型服务,以获得免费额度。如果未显示该消息,则表示您已经开通。


    如果开通服务时提示“您尚未进行实名认证”,请先参考实名认证文档对您的阿里云账号进行实名认证。


  3. 获取API Key:在控制台的右上角选择API-KEY,然后创建API Key,用于通过API调用大模型

  4. 配置API Key到环境变量:API Key配置到环境变量,从而避免在代码里显式地配置API Key



  5. 选择开发语言:如python


    import os
    from openai import OpenAI

    try:
    client = OpenAI(
    # 若没有配置环境变量,请用百炼API Key将下行替换为:api_key="sk-xxx",
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    )

    completion = client.chat.completions.create(
    model="qwen-plus", # 模型列表:https://help.aliyun.com/zh/model-studio/getting-started/models
    messages=[
    {'role': 'system', 'content': 'You are a helpful assistant.'},
    {'role': 'user', 'content': '你是谁?'}
    ]
    )
    print(completion.choices[0].message.content)
    except Exception as e:
    print(f"错误信息:{e}")
    print("请参考文档:https://help.aliyun.com/zh/model-studio/developer-reference/error-code")

下面以 DeepSeek 为例继续演示,其他模型类似。

DeepSeek调用

开始调用
使用DeepSeek-R1模型时,需要先获取API Key并完成配置。以下是示例代码:

搜索模型
在百炼平台开通后,您可以获取每个模型100万tokens,首先在模型广场搜索deepseek

安装依赖

pip install --upgrade openai

查看API Key

运行以下代码

可以通过 OpenAI SDK 或 OpenAI 兼容的 HTTP 方式快速体验 DeepSeek 模型。

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),  # 配置您的API Key
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)

completion = client.chat.completions.create(
    model="deepseek-r1",  # 替换为DeepSeek模型名称
    messages=[
        {'role': 'user', 'content': '2025年如何学习AI'}
    ]
)

# 输出思考过程
print("思考过程:")
print(completion.choices[0].message.reasoning_content)
# 输出最终答案
print("最终答案:")
print(completion.choices[0].message.content)

执行输出(等待将近一分钟):

4、流式输出

由于 DeepSeek-R1 类模型可能会输出较长的思考过程,为了降低超时风险,可以使用流式输出调用 DeepSeek-R1 类模型。

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)

completion = client.chat.completions.create(
    model="deepseek-r1",  # 替换为需要的模型名称
    messages=[
        {'role': 'user', 'content': 'DeepSeek和ChatGPT相比较的优势是什么?'}
    ],
    stream=True
)

reasoning_content = ""
answer_content = ""
for chunk in completion:
    reasoning_chunk = chunk.choices[0].delta.reasoning_content
    answer_chunk = chunk.choices[0].delta.content
    if reasoning_chunk != "":
        print(reasoning_chunk, end="")
        reasoning_content += reasoning_chunk
    elif answer_chunk != "":
        print(answer_chunk, end="")
        answer_content += answer_chunk
print(f"\n完整思考过程:{reasoning_content}")
print(f"完整的回复:{answer_content}")

总结

阿里云百炼是一个功能强大的AI平台,提供了从模型选择到应用部署的一站式服务。通过该平台,您可以轻松调用DeepSeek等大模型,享受按需付费的灵活模式,显著降低AI应用的成本,同时确保数据的安全性。

30115776@qq.com

Pretium lorem primis lectus donec tortor fusce morbi risus curae. Dignissim lacus massa mauris enim mattis magnis senectus montes mollis taciti accumsan semper nullam dapibus netus blandit nibh aliquam metus morbi cras magna vivamus per risus.

WebChat基于 Chrome 扩展的最佳实践开发,支持自定义 API 和本地大模型

Cursor AI编程助手不完全指南

发表评论