Ollama 模型节点#
Ollama 模型节点允许您使用本地 Llama 2 模型。
在此页面上,您将找到 Ollama 模型节点的节点参数和更多资源的链接。
此节点缺乏工具支持,因此无法与 AI 智能体节点一起使用。相反,请将其与基础 LLM 链节点连接。
凭证
您可以在此处找到此节点的身份验证信息。
子节点中的参数解析
子节点在使用表达式处理多个项目时,与其他节点的行为不同。
大多数节点(包括根节点)接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name
值的输入,表达式 {{ $json.name }}
会依次解析为每个名称。
在子节点中,表达式始终解析为第一个项目。例如,给定五个 name
值的输入,表达式 {{ $json.name }}
始终解析为第一个名称。
节点参数#
- 模型:选择生成完成结果的模型。可选择:
- Llama2
- Llama2 13B
- Llama2 70B
- Llama2 Uncensored
有关可用模型的更多信息,请参阅 Ollama 模型库文档。
节点选项#
- 采样温度:使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。
- Top K:输入模型用来生成下一个标记的标记选择数量。
- Top P:使用此选项设置完成结果应使用的概率。使用较低的值可忽略概率较低的选项。
模板和示例#
相关资源#
有关该服务的更多信息,请参阅 LangChain 的 Ollama 文档。
查看 n8n 的高级 AI 文档。
常见问题#
有关常见问题或疑问及建议的解决方案,请参阅常见问题。
自托管 AI 入门套件#
刚开始使用 AI 和自托管 n8n?试试 n8n 的自托管 AI 入门套件,使用 Ollama、Qdrant 和 PostgreSQL 开始构建概念验证或演示环境。
此页面是否
微信
🚀 与作者交流
关注公众号

n8n实战笔记
📚 教程 💡 案例 🔧 技巧
📚 教程 💡 案例 🔧 技巧
添加微信

1对1 专业指导
⚡ 快答 🎯 定制 🚀 支持
⚡ 快答 🎯 定制 🚀 支持