5分钟学会使用DeepSeek API搭建简易AI问答应用

L~river 2025-02-07 08:14:40编程技术
1063

在当今的人工智能领域,大型语言模型如DeepSeek正逐渐成为实现高效问答系统的关键工具。然而,对于初学者或希望快速上手的使用者来说,配置和使用这些模型可能会显得复杂且令人困惑。为此,本教程将详细指导您如何一步步配置DeepSeek大模型以实现简易AI问答功能。无论您是希望构建自己的智能助手,还是仅仅对大型语言模型的工作原理感到好奇,本文都将为您提供实用的指南和清晰的步骤,帮助您轻松掌握DeepSeek大模型的配置与使用技巧。

        deepseek-v3是截止博文撰写之日,无论是国内还是国际上发布的大模型中表现十分亮眼的模型,这里以deepseek为例,讲解如何获取api_key、base_url、chat_model。

1、获取api

       首先打开deepseek接口的官网:DeepSeek

5分钟学会使用DeepSeek API搭建简易AI问答应用

         点右上角“开放平台”

5分钟学会使用DeepSeek API搭建简易AI问答应用


         新号一般会送10元的余额,左上方会显示你当前余额按照当前的价格所拥有的tokens数量(tokens可以简单的理解为你输入给大模型的提示词+大模型输出的内容之和所占用的字符数,这个后续博客中会细讲分词原理),这个tokens数量可能会随着模型价格变化而变化,不过deepseek的api价格比较便宜,如图上所展示的送给新人的500万tokens数也够个人使用很久了。

        接着,点击左侧的API keys,然后点击创建API key

5分钟学会使用DeepSeek API搭建简易AI问答应用


         一般需要给API key命名用来区分不同的API,比如下图命名为“test”

5分钟学会使用DeepSeek API搭建简易AI问答应用

        这里需要注意的是,系统生成的API key只有第一次创建时能看到并且复制,此后都无法再次看到,只能看到名字,所以需要大家第一次就将其复制下来,保存到你的文件中,当然如果忘记了也影响不大,重新创建一个就行。

2、获取base_url和chat_model

         同样以deepseek为例,点击2.1.1页面左下角的接口文档,或者直接进入DeepSeek API文档

5分钟学会使用DeepSeek API搭建简易AI问答应用


         进入文档后,在“快速开始”的“首次调用API”中,可以找到base_url和chat_model,如下:

base_url = https://api.deepseek.com/v1

chat_model='deepseek-chat'

 其他平台与deepseek的获取方式差不多

3、配置模型参数

        base_url和chat_model直接定义即可,但api key是关乎着模型是否能够使用的,所以尽量不要把其暴露在模型定理里面,而是把他添加到环境变量里,这里介绍两种方法添加环境变量。

方法一:终端中临时将加入

        在终端中临时将token加入变量,此时该环境变量只在当前终端内有效 !!!所以该种方法需要我们在该终端中运行我们的py脚本。

export api_key="填入你的api token"

        若是想永久加入环境变量,可以对 ~/.bashrc 文件中添加以下内容并保存。

export api_key="填入你的api token"

        此时在代码中获取api 只需要在Python脚本中添加以下代码即可

import os
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

方法二:创建.env文件

        终端输入命令临时创建也比较麻烦,而且只在当前终端内有效,而创建.env文件存储api_key则不存在这种问题。

        首先创建.env文件,然后输入以下内容,记得替换成你的token

api_key="your api_key"

同一路径下创建脚本文件,然后在代码中添加以下内容

import os
from dotenv import load_dotenv


# 加载.env文件中的环境变量
load_dotenv()

# 获取特定的环境变量
api_key = os.getenv('api_key')

base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

4、 配置client

         有了前面的三个参数,我们就可以构造一个client,构造client只需要两个东西:api_key和base_url。

from openai import OpenAI
client = OpenAI(
    api_key = api_key,
    base_url = base_url
)

5、利用deepseek大模型实现简易AI问答

我们这里使用第二种方式定义api_key,创建.env文件存储api_key后,在.env同一目录下创建脚本文件,填入以下代码:

import os
from dotenv import load_dotenv
from openai import OpenAI
# 加载环境变量
load_dotenv()
# 从环境变量中读取api_key
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"


client = OpenAI(
    api_key = api_key,
    base_url = base_url
)

        有了这个client,我们就可以去实现各种能力了。

举个简单例子测试一下模型是否配置成功,配置好api的token后,输入以下代码

import os
from dotenv import load_dotenv
from openai import OpenAI

# 加载环境变量
load_dotenv()

# 从环境变量中读取api_key
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

client = OpenAI(
    api_key=api_key,
    base_url=base_url
)

try:
    # 发送一个简单的消息到模型
    response = client.chat.completions.create(
        model=chat_model,
        messages=[
            {"role": "system", "content": "你是一个乐于助人的AI助手,能够帮助用户解决各种专业问题."},
            {"role": "user", "content": "你好,介绍下你自己"}
        ]
    )
    
    # 打印模型的回复
    print("Model response:")
    print(response.choices[0].message.content)
except Exception as e:
    print(f"An error occurred: {e}")

结果如下:

5分钟学会使用DeepSeek API搭建简易AI问答应用

         证明配置成功,如果没有回应,检查API key是否配置对了,如果对了可能是平台服务器的原因,等服务器恢复正常就好了

总结:

通过本教程,我们详细探讨了如何配置DeepSeek大模型以实现简易问答功能。从获取API密钥和模型参数,到配置环境变量和客户端,再到实际的问答测试,我们一步步地引导您完成了整个配置过程。希望本文能够为您在使用DeepSeek大模型时提供有力的支持,让您能够轻松构建出功能强大的问答系统。无论是学术研究、商业应用还是个人兴趣,掌握这一技能都将为您带来无尽的可能性。随着人工智能技术的不断发展,我们相信DeepSeek大模型将在更多领域展现出其巨大的潜力和价值。

DeepSeek ai问答
THE END
蜜芽
故事不长,也不难讲,四字概括,毫无意义。

相关推荐

Gen-CLI:基于DeepSeek的AI命令行编程工具,谷歌Gemini-CLI平替方案
Gen-CLI是一个开源的命令行编程工具,旨在为国内开发者提供类似于谷歌Gemini-CLI的AI辅助编程体验。该项目基于开源的Gemini-CLI进行改造,通过调用硅基流动(SiliconCloud)平台...
2025-07-09 新闻资讯
842

DeepSite:基于DeepSeek V3的AI前端网页代码生成工具
DeepSite是一个基于AI的网站生成工具,用户只需输入简单的文字描述,就能快速生成一个实时可运行的前端网页。它由Hugging Face社区成员enzostvs开发,依托强大的DeepSeek V3(...
2025-04-14 新闻资讯
997

​美图WHEE接入DeepSeek R1,提示词优化可自动补全关键词
近日,美图公司旗下的 AI 素材生成器 WHEE 宣布与 DeepSeek R1满血版成功接入。这一合作旨在将 DeepSeek 的专业提示词设计能力与 WHEE 的易用性相结合,帮助用户在无专业背景...
2025-03-27 新闻资讯
461

Ubuntu 系统部署 Ollama + DeepSeek + Docker + Ragflow
Ollama和DeepSeek作为当前领先的NLP模型,其强大的功能和灵活性使其在各种应用场景中备受青睐。为了更好地利用这些模型,许多开发者和企业选择在本地环境中进行部署。本文将详...
2025-03-26 编程技术
821

DeepSeek-R1+Ollama本地化部署方法及技巧分享
Ollama作为当前最受欢迎的本地大模型运行框架,为DeepSeek R1的私有化部署提供了便捷高效的解决方案。本文将深入讲解如何将Hugging Face格式的DeepSeek R1模型转换为Ollama支...
2025-03-26 编程技术
540

腾讯云宣布上线DeepSeek最新版V3模型API接口
3月25日晚,腾讯云宣布率先上线DeepSeek-V3-0324版本模型的API接口,企业和开发者可以通过腾讯云直接调用这一最新版模型,获得稳定且优质的服务。同时,腾讯云旗下大模型知识...
2025-03-26 新闻资讯
448