1. 首页
  2. 文档
  3. AMD-大模型调用

白皮书下载

实在智能Agent产品白皮书(7.2.0).pdf

AMD-大模型调用

发刊日期:
2025/08/02

编辑团队:
实在学院

惠普AIPC-AMD

实在Agent为适配惠普AIPC对本地大模型的调用需求,专门配置了本地大模型业务组件,具备使用本机大模型运行自动化任务的能力。

 

组件介绍

  • 【启动服务(Ollama)】该组件无属性设置,运行即表示在本地启动大模型服务,端口占用11434
  • 【关闭服务(Ollama)】该组件无属性设置,运行即表示在本地关闭大模型服务,端口释放11434,通常与启动Ollama服务配对使用,以释放内存和算力。
  • 【下载大模型】该组件须在【启动服务(Ollama)】组件后使用,用于自动下载大模型,支持基于Ollama v0.6.2 的模型,和DeepSeep-R1等新增模型,部分模型说明如下:

模型

支持参数量

推荐下载(参数填写)

模型官方链接

DeepSeek-R1

1.5b, 7b, 8b, 14b, 32b, 70b, 671b

deepseek-r1:7b

Qwen3

0.6b, 1.7b, 4b, 8b, 14b, 30b, 32b, 235b

qwen3:4b、qwen3:8b

Qwen2.5

0.5b, 1.5b, 3b, 7b, 14b, 32b, 72b

qwen2.5:3b、qwen2.5:7b

Qwen2

0.5b, 1.5b, 7b, 72b

qwen2:7b

Gemma3

1b, 4b, 12b, 27b

gemma3:4b

如需下载其他模型,请访问Ollama官网,并用“模型名称:参数量”下载。下载到本地默认路径(默认为C:\users\用户\.ollama),用时约40~70分钟(视网速情况)。若之前曾经下载,则默认跳过,或直接使用【大模型调用】组件即可。

  • 【大模型调用】该组件用于调用模型服务,输入提示词,返回大模型结果;模型配置默认"qwen2.5:3b"(即3B的千问2.5系列模型)

 

使用样例

以下为一个“调用模型生成悖论并在百度进行搜索”的自动化流程。

 

在配置下载模型参数时,在“模型名称”参数输入要下载的模型,这里使用的是“qwen3:4b”。

 

在配置大模型调用参数时,在“模型名称”参数输入已经下载的模型,这里使用的是“qwen3:4b”。

输入“系统Prompt”,代表SYSTEM的Prompt。

输入“用户输入”,代表USER的Prompt,也即需要提问的内容。

此处返回“模型输出”和“响应体”,“模型输出”仅为模型回复的文本,方便直接解析使用;“响应体”还包含这次调用模型的其他信息如时间,方便调试。

 

下载模型:

在下载新模型时,用户电脑会弹出这样的进度条窗口,下载完成后自动关闭。

如果模型已下载,则也会弹出几秒窗口(测试提问窗口),完成后迅速自动关闭。

 

未下载模型时:

如果模型未下载就使用“大模型调用”组件,则在运行自动化流程时会弹出“模型未下载”的提示。

并返回“模型未下载”的输出。

 

已下载过模型时:

已经下载过模型,直接使用“大模型调用”组件,则正常执行。无需每次要先使用“下载模型”组件。

如下电脑上已经下载过“qwen2.5:3b”模型,则直接使用即可。

 

其他帮助

如您有其他技术类疑问或需求,请访问 Ollama-for-amd,寻找方法或帮助。也可通过官方社群或社区联系实在Agent技术支持,我们会第一时间为您服务。

企业培训
技术支持
加入社群
公众号
实在智能Agent学习群
扫码关注微信公众号