Claude code 源码泄露让 MCP 大火,Google 最近又推出了 Agent Development Kit 和
A2A,相当于是直接把 MCP Server 和
MCP Client 都集成到了一起,这就一定要和 LLM 打交道了。
官方文档中直接支持的平台就只有自家的 AI Studio 和 Vertex AI,其他平台都是通过
LiteLLM 来实现的。如果想要在国内用起来 ADK 肯定还是接入国内平台用起来更方便,下面就是 ADK 接入国内平台的使用方式。
这里使用阿里百炼平台的 API 举例,只要是 OpenAI 兼容的 API 理论上都可以接入,但是因为要涉及到函数调用,模型需要支持 Function Calling 而且需要比较强的指令遵循才能有比较好的效果,例子中使用 qwen-max 模型。
准备
首先需要按官方快速上手教程中的步骤把项目搭建好。
搭建时可以不填 API KEY
,后面用的是百炼的 KEY
。
搭建完成后,项目结构如下所示
1 | ├── README.md |
修改 Agent
要修改的内容在 agent.py
中,创建的 Agent 如果使用支持的模型,参数中的 model 直接填写模型名称就行,这里我们使用第三方平台的模型,参考
Models 这一节文档,model
参数要替换为 LiteLlm。
1. 安装 LiteLLM
首先,替换之前需要先安装一下 LiteLLM
1 | uv add litellm |
2. 引入 LiteLlm
安装完成后在项目中引入 LiteLlm
1 | from google.adk.models.lite_llm import LiteLlm |
3. 修改 model 参数
修改 model 参数为 LiteLlm
1 | model=LiteLlm( |
这里有两点重要的配置细节需要注意
- 模型前面平台必须写 openai,否则 LiteLLM 不认会报错,或者按 LiteLLM 文档中创建自己的 CustomLLM,如果有需求的话可以创建,能实现更多的控制。
- api_base 要用阿里云文档中 OpenAI
兼容的地址,并且必须要带上
/v1
。如果用了 DashScope 的地址,就需要自己创建 CustomLLM 来对结构做转换并注册到litellm.custom_provider_map
中再使用了。
最终完整的 root_agent 长下面这样
1 | root_agent = Agent( |
运行结果
使用命令 adk web
运行
最终运行效果应该和官方实例几乎相同,就说明接入成功了。

成功运行后就可以复制这些 Agent 搭建自己的 Agentic 了。
每个 Agent 都可以使用不同平台的不同模型,如果没有用到 tools,只是做一些简单的工作,比如问候之类的,使用免费的模型也是可以的。
复杂的任务比如需要编排、调用其他 Agent 的模型就用性能好一些的模型,以实现成本优化。