通过该配置,您可以连接任何遵守OpenAI标准的模型服务
创建一个yaml文件,例如 user_openai_style_llm.yaml 将以下内容粘贴到您的user_openai_style_llm.yaml文件当中
name: 'deep_seek_llm'
description: 'demo deep_seek llm with spi'
model_name: 'deepseek-chat'
max_tokens: 4000
max_context_length: 32000
api_key_env: 'DEEPSEEK_API_KEY'
api_base_env: 'DEEPSEEK_API_BASE'
metadata:
type: 'LLM'
module: 'agentuniverse.llm.openai_style_llm'
class: 'OpenAIStyleLLM'
参数说明: max_context_length: 模型所能承接的上下文 api_key_env: api key的env变量名 api_base_env: api base的env变量名 上述参数必须配置,服务启动时会从环境变量中加载相关的值
必须配置:$api_key_env, $api_base_env 配置文件中api_key_env与api_base_env分别为DEEPSEEK_API_KEY、DEEPSEEK_API_BASE,所以配置如下:
import os
os.environ['DEEPSEEK_API_KEY'] = 'sk-***'
os.environ['DEEPSEEK_API_BASE'] = 'https://xxxxxx'
在项目的config目录下的custom_key.toml当中,添加配置:
DEEPSEEK_API_KEY="DEEPSEEK_API_KEY"
DEEPSEEK_API_BASE="https://xxxxxx"
注意,这里必须与配置文件中锁配置的api_key_env、api_base_env一致