白皮书下载
AMD-大模型调用
惠普AIPC-AMD
实在Agent为适配惠普AIPC对本地大模型的调用需求,专门配置了本地大模型业务组件,具备使用本机大模型运行自动化任务的能力。
组件介绍
-
【启动服务(Ollama)】该组件无属性设置,运行即表示在本地启动大模型服务,端口占用11434
-
【关闭服务(Ollama)】该组件无属性设置,运行即表示在本地关闭大模型服务,端口释放11434,通常与启动Ollama服务配对使用,以释放内存和算力。
-
【下载大模型】该组件须在【启动服务(Ollama)】组件后使用,用于自动下载大模型,支持基于Ollama v0.6.2 的模型,和DeepSeep-R1等新增模型,部分模型说明如下:
|
模型 |
支持参数量 |
推荐下载(参数填写) |
模型官方链接 |
|
DeepSeek-R1 |
1.5b, 7b, 8b, 14b, 32b, 70b, 671b |
deepseek-r1:7b |
|
|
Qwen3 |
0.6b, 1.7b, 4b, 8b, 14b, 30b, 32b, 235b |
qwen3:4b、qwen3:8b |
|
|
Qwen2.5 |
0.5b, 1.5b, 3b, 7b, 14b, 32b, 72b |
qwen2.5:3b、qwen2.5:7b |
|
|
Qwen2 |
0.5b, 1.5b, 7b, 72b |
qwen2:7b |
|
|
Gemma3 |
1b, 4b, 12b, 27b |
gemma3:4b |
|
如需下载其他模型,请访问Ollama官网,并用“模型名称:参数量”下载。下载到本地默认路径(默认为C:\users\用户\.ollama),用时约40~70分钟(视网速情况)。若之前曾经下载,则默认跳过,或直接使用【大模型调用】组件即可。
-
【大模型调用】该组件用于调用模型服务,输入提示词,返回大模型结果;模型配置默认"qwen2.5:3b"(即3B的千问2.5系列模型)
使用样例
以下为一个“调用模型生成悖论并在百度进行搜索”的自动化流程。
在配置下载模型参数时,在“模型名称”参数输入要下载的模型,这里使用的是“qwen3:4b”。
在配置大模型调用参数时,在“模型名称”参数输入已经下载的模型,这里使用的是“qwen3:4b”。
输入“系统Prompt”,代表SYSTEM的Prompt。
输入“用户输入”,代表USER的Prompt,也即需要提问的内容。
此处返回“模型输出”和“响应体”,“模型输出”仅为模型回复的文本,方便直接解析使用;“响应体”还包含这次调用模型的其他信息如时间,方便调试。
下载模型:
在下载新模型时,用户电脑会弹出这样的进度条窗口,下载完成后自动关闭。
如果模型已下载,则也会弹出几秒窗口(测试提问窗口),完成后迅速自动关闭。
未下载模型时:
如果模型未下载就使用“大模型调用”组件,则在运行自动化流程时会弹出“模型未下载”的提示。
并返回“模型未下载”的输出。
已下载过模型时:
已经下载过模型,直接使用“大模型调用”组件,则正常执行。无需每次要先使用“下载模型”组件。
如下电脑上已经下载过“qwen2.5:3b”模型,则直接使用即可。
其他帮助
如您有其他技术类疑问或需求,请访问 Ollama-for-amd,寻找方法或帮助。也可通过官方社群或社区联系实在Agent技术支持,我们会第一时间为您服务。




