模型

AgentScope中,模型的部署和调用是通过ModelWrapper来解耦开的,开发者可以通过提供模型配置(Model config)的方式指定模型,同时AgentScope也提供脚本支持开发者自定义模型服务。

支持模型

目前,AgentScope内置以下模型服务API的支持:

  • OpenAI API,包括对话(Chat),图片生成(DALL-E)和文本嵌入(Embedding)。

  • DashScope API,包括对话(Chat)和图片生成(Image Sythesis)和文本嵌入(Text Embedding)。

  • Gemini API,包括对话(Chat)和嵌入(Embedding)。

  • ZhipuAi API,包括对话(Chat)和嵌入(Embedding)。

  • Ollama API,包括对话(Chat),嵌入(Embedding)和生成(Generation)。

  • LiteLLM API, 包括对话(Chat), 支持各种模型的API.

  • Post请求API,基于Post请求实现的模型推理服务,包括Huggingface/ModelScope Inference API和各种符合Post请求格式的API。

配置方式

AgentScope中,用户通过agentscope.init接口中的model_configs参数来指定模型配置。 model_configs可以是一个字典,或是一个字典的列表,抑或是一个指向模型配置文件的路径。

import agentscope

agentscope.init(model_configs=MODEL_CONFIG_OR_PATH)

其中model_configs的一个例子如下:

model_configs = [
    {
        "config_name": "gpt-4-temperature-0.0",
        "model_type": "openai_chat",
        "model_name": "gpt-4",
        "api_key": "xxx",
        "organization": "xxx",
        "generate_args": {
            "temperature": 0.0
        }
    },
    {
        "config_name": "dall-e-3-size-1024x1024",
        "model_type": "openai_dall_e",
        "model_name": "dall-e-3",
        "api_key": "xxx",
        "organization": "xxx",
        "generate_args": {
            "size": "1024x1024"
        }
    },
    # 在这里可以配置额外的模型
]

配置格式

AgentScope中,模型配置是一个字典,用于指定模型的类型以及设定调用参数。 我们将模型配置中的字段分为_基础参数_和_调用参数_两类。 其中,基础参数包括config_namemodel_type两个基本字段,分别用于区分不同的模型配置和具 体的ModelWrapper类型。

{
    # 基础参数
    "config_name": "gpt-4-temperature-0.0",     # 模型配置名称
    "model_type": "openai_chat",                # 对应`ModelWrapper`类型

    # 详细参数
    # ...
}

基础参数

基础参数中,config_name是模型配置的标识,我们将在初始化智能体时用该字段指定使用的模型服务。

model_type对应了ModelWrapper的类型,用于指定模型服务的类型。对应源代码中ModelWrapper 类的model_type字段。

class OpenAIChatWrapper(OpenAIWrapper):
    """The model wrapper for OpenAI's chat API."""

    model_type: str = "openai_chat"
    # ...

在目前的AgentScope中,所支持的model_type类型,对应的ModelWrapper类,以及支持的 API如下:

API

Task

Model Wrapper

model_type

Some Supported Models

OpenAI API

Chat

OpenAIChatWrapper

"openai_chat"

gpt-4, gpt-3.5-turbo, …

Embedding

OpenAIEmbeddingWrapper

"openai_embedding"

text-embedding-ada-002, …

DALL·E

OpenAIDALLEWrapper

"openai_dall_e"

dall-e-2, dall-e-3

DashScope API

Chat

DashScopeChatWrapper

"dashscope_chat"

qwen-plus, qwen-max, …

Image Synthesis

DashScopeImageSynthesisWrapper

"dashscope_image_synthesis"

wanx-v1

Text Embedding

DashScopeTextEmbeddingWrapper

"dashscope_text_embedding"

text-embedding-v1, text-embedding-v2, …

Multimodal

DashScopeMultiModalWrapper

"dashscope_multimodal"

qwen-vl-plus, qwen-vl-max, qwen-audio-turbo, …

Gemini API

Chat

GeminiChatWrapper

"gemini_chat"

gemini-pro, …

Embedding

GeminiEmbeddingWrapper

"gemini_embedding"

models/embedding-001, …

ZhipuAI API

Chat

ZhipuAIChatWrapper

"zhipuai_chat"

glm-4, …

Embedding

ZhipuAIEmbeddingWrapper

"zhipuai_embedding"

embedding-2, …

ollama

Chat

OllamaChatWrapper

"ollama_chat"

llama2, …

Embedding

OllamaEmbeddingWrapper

"ollama_embedding"

llama2, …

Generation

OllamaGenerationWrapper

"ollama_generate"

llama2, …

LiteLLM API

Chat

LiteLLMChatWrapper

"litellm_chat"

-

Post Request based API

-

PostAPIModelWrapperBase

"post_api"

-

Chat

PostAPIChatModelWrapper

"post_api_chat"

meta-llama/Meta-Llama-3-8B-Instruct, …

详细参数

根据ModelWrapper的不同,详细参数中所包含的参数不同。 但是所有的详细参数都会用于初始化ModelWrapper类的实例,因此,更详细的参数说明可以根据ModelWrapper类的构造函数来查看。 下面展示了不同ModelWrapper对应的模型配置样例,用户可以修改这些样例以适应自己的需求。

OpenAI API
OpenAI Chat API (agents.models.OpenAIChatWrapper)
{
    "config_name": "{your_config_name}",
    "model_type": "openai_chat",

    # 必要参数
    "model_name": "gpt-4",

    # 可选参数
    "api_key": "{your_api_key}",                # OpenAI API Key,如果没有提供,将从环境变量中读取
    "organization": "{your_organization}",      # Organization name,如果没有提供,将从环境变量中读取
    "client_args": {                            # 用于初始化OpenAI API Client的参数
        # 例如:"max_retries": 3,
    },
    "generate_args": {                          # 模型API接口被调用时传入的参数
        # 例如:"temperature": 0.0
    },
    "budget": 100                               # API费用预算
}
OpenAI DALL·E API (agentscope.models.OpenAIDALLEWrapper)
{
    "config_name": "{your_config_name}",
    "model_type": "openai_dall_e",

    # 必要参数
    "model_name": "{model_name}",               # OpenAI model name, 例如:dall-e-2, dall-e-3

    # 可选参数
    "api_key": "{your_api_key}",                # OpenAI API Key,如果没有提供,将从环境变量中读取
    "organization": "{your_organization}",      # Organization name,如果没有提供,将从环境变量中读取
    "client_args": {                            # 用于初始化OpenAI API Client的参数
        # 例如:"max_retries": 3,
    },
    "generate_args": {                          # 模型API接口被调用时传入的参数
        # 例如:"n": 1, "size": "512x512"
    }
}
OpenAI Embedding API (agentscope.models.OpenAIEmbeddingWrapper)
{
    "config_name": "{your_config_name}",
    "model_type": "openai_embedding",

    # 必要参数
    "model_name": "{model_name}",               # OpenAI model name, 例如:text-embedding-ada-002, text-embedding-3-small

    # 可选参数
    "api_key": "{your_api_key}",                # OpenAI API Key,如果没有提供,将从环境变量中读取
    "organization": "{your_organization}",      # Organization name,如果没有提供,将从环境变量中读取
    "client_args": {                            # 用于初始化OpenAI API Client的参数
        # 例如:"max_retries": 3,
    },
    "generate_args": {                          # 模型API接口被调用时传入的参数
        # 例如:"encoding_format": "float"
    }
}

DashScope API

DashScope Chat API (agentscope.models.DashScopeChatWrapper)
{
    "config_name": "my_dashscope_chat_config",
    "model_type": "dashscope_chat",

    # 必要参数
    "model_name": "{model_name}",               # DashScope Chat API中的模型名, 例如:qwen-max

    # 可选参数
    "api_key": "{your_api_key}",                # DashScope API Key,如果没有提供,将从环境变量中读取
    "generate_args": {
        # 例如:"temperature": 0.5
    },
}
DashScope Image Synthesis API (agentscope.models.DashScopeImageSynthesisWrapper)
{
    "config_name": "my_dashscope_image_synthesis_config",
    "model_type": "dashscope_image_synthesis",

    # 必要参数
    "model_name": "{model_name}",               # DashScope Image Synthesis API中的模型名, 例如:wanx-v1

    # 可选参数
    "api_key": "{your_api_key}",
    "generate_args": {
        "negative_prompt": "xxx",
        "n": 1,
        # ...
    }
}
DashScope Text Embedding API (agentscope.models.DashScopeTextEmbeddingWrapper)
{
    "config_name": "my_dashscope_text_embedding_config",
    "model_type": "dashscope_text_embedding",

    # 必要参数
    "model_name": "{model_name}",               # DashScope Text Embedding API中的模型名, 例如:text-embedding-v1

    # 可选参数
    "api_key": "{your_api_key}",
    "generate_args": {
        # ...
    },
}
DashScope Multimodal Conversation API (agentscope.models.DashScopeMultiModalWrapper)
{
    "config_name": "my_dashscope_multimodal_config",
    "model_type": "dashscope_multimodal",

    # Required parameters
    "model_name": "{model_name}",               # The model name in DashScope Multimodal Conversation API, e.g. qwen-vl-plus

    # Optional parameters
    "api_key": "{your_api_key}",
    "generate_args": {
        # ...
    },
}

Gemini API

Gemini Chat API (agentscope.models.GeminiChatWrapper)
{
    "config_name": "my_gemini_chat_config",
    "model_type": "gemini_chat",

    # 必要参数
    "model_name": "{model_name}",               # Gemini Chat API中的模型名,例如:gemini-pro

    # 可选参数
    "api_key": "{your_api_key}",                # 如果没有提供,将从环境变量GEMINI_API_KEY中读取
}
Gemini Embedding API (agentscope.models.GeminiEmbeddingWrapper)
{
    "config_name": "my_gemini_embedding_config",
    "model_type": "gemini_embedding",

    # 必要参数
    "model_name": "{model_name}",               # Gemini Embedding API中的模型名,例如:models/embedding-001

    # 可选参数
    "api_key": "{your_api_key}",                # 如果没有提供,将从环境变量GEMINI_API_KEY中读取
}

ZhipuAI API

ZhipuAI Chat API (agentscope.models.ZhipuAIChatWrapper)
{
    "config_name": "my_zhipuai_chat_config",
    "model_type": "zhipuai_chat",

    # Required parameters
    "model_name": "{model_name}",               # The model name in ZhipuAI API, e.g. glm-4

    # Optional parameters
    "api_key": "{your_api_key}"
}
ZhipuAI Embedding API (agentscope.models.ZhipuAIEmbeddingWrapper)
{
    "config_name": "my_zhipuai_embedding_config",
    "model_type": "zhipuai_embedding",

    # Required parameters
    "model_name": "{model_name}",               # The model name in ZhipuAI API, e.g. embedding-2

    # Optional parameters
    "api_key": "{your_api_key}",
}

Ollama API

Ollama Chat API (agentscope.models.OllamaChatWrapper)
{
    "config_name": "my_ollama_chat_config",
    "model_type": "ollama_chat",

    # 必要参数
    "model_name": "{model_name}",               # ollama Chat API中的模型名, 例如:llama2

    # 可选参数
    "options": {                                # 模型API接口被调用时传入的参数
        # 例如:"temperature": 0., "seed": 123,
    },
    "keep_alive": "5m",                         # 控制一次调用后模型在内存中的存活时间
}
Ollama Generation API (agentscope.models.OllamaGenerationWrapper)
{
    "config_name": "my_ollama_generate_config",
    "model_type": "ollama_generate",

    # 必要参数
    "model_name": "{model_name}",               # ollama Generate API, 例如:llama2

    # 可选参数
    "options": {                                # 模型API接口被调用时传入的参数
        # "temperature": 0., "seed": 123,
    },
    "keep_alive": "5m",                         # 控制一次调用后模型在内存中的存活时间
}
Ollama Embedding API (agentscope.models.OllamaEmbeddingWrapper)
{
    "config_name": "my_ollama_embedding_config",
    "model_type": "ollama_embedding",

    # 必要参数
    "model_name": "{model_name}",               # ollama Embedding API, 例如:llama2

    # 可选参数
    "options": {                                # 模型API接口被调用时传入的参数
        # "temperature": 0., "seed": 123,
    },
    "keep_alive": "5m",                         # 控制一次调用后模型在内存中的存活时间
}

LiteLLM Chat API

LiteLLM Chat API (agentscope.models.LiteLLMChatModelWrapper)
{
    "config_name": "lite_llm_openai_chat_gpt-3.5-turbo",
    "model_type": "litellm_chat",
    "model_name": "gpt-3.5-turbo" # You should note that for different models, you should set the corresponding environment variables, such as OPENAI_API_KEY, etc. You may refer to https://docs.litellm.ai/docs/ for this.
},

Post Request API

Post request API (agentscope.models.PostAPIModelWrapperBase)
{
    "config_name": "my_postapiwrapper_config",
    "model_type": "post_api",

    # 必要参数
    "api_url": "https://xxx.xxx",
    "headers": {
        # 例如:"Authorization": "Bearer xxx",
    },

    # 可选参数
    "messages_key": "messages",
}

Post Request Chat API

Post request Chat API (agentscope.models.PostAPIChatModelWrapper)
{
    "config_name": "my_postapichatwrapper_config",
    "model_type": "post_api_chat",

    # 必要参数
    "api_url": "https://xxx.xxx",
    "headers": {
        # 例如:"Authorization": "Bearer xxx",
    },

    # 可选参数
    "messages_key": "messages",
}

从零搭建模型服务

针对需要自己搭建模型服务的开发者,AgentScope提供了一些脚本来帮助开发者快速搭建模型服务。您可以在scripts目录下找到这些脚本以及说明。

具体而言,AgentScope提供了以下模型服务的脚本:

关于如何快速启动这些模型服务,用户可以参考scripts目录下的README.md文件。

创建自己的Model Wrapper

AgentScope允许开发者自定义自己的模型包装器。新的模型包装器类应该

  • 继承自ModelWrapperBase类,

  • 提供model_type字段以在模型配置中标识这个Model Wrapper类,并

  • 实现__init____call__函数。

from agentscope.models import ModelWrapperBase


class MyModelWrapper(ModelWrapperBase):
    model_type: str = "my_model"

    def __init__(self, config_name, my_arg1, my_arg2, **kwargs):
        # 初始化模型实例
        super().__init__(config_name=config_name)
        # ...

    def __call__(self, input, **kwargs) -> str:
        # 调用模型实例
        # ...

在创建新的模型包装器类之后,模型包装器将自动注册到AgentScope中。 您可以直接在模型配置中使用它。

my_model_config = {
    # 基础参数
    "config_name": "my_model_config",
    "model_type": "my_model",

    # 详细参数
    "my_arg1": "xxx",
    "my_arg2": "yyy",
    # ...
}

[返回顶部]