跳转至

Ollama 聊天模型节点#

Ollama 聊天模型节点允许您在对话智能体中使用本地 Llama 2 模型。

在此页面上,您将找到 Ollama 聊天模型节点的节点参数和更多资源的链接。

凭证

您可以在此处找到此节点的身份验证信息。

子节点中的参数解析

子节点在使用表达式处理多个项目时,与其他节点的行为不同。

大多数节点(包括根节点)接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。

在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。

节点参数#

  • 模型:选择生成完成结果的模型。可选择:
    • Llama2
    • Llama2 13B
    • Llama2 70B
    • Llama2 Uncensored

有关可用模型的更多信息,请参阅 Ollama 模型库文档

节点选项#

  • 采样温度:使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。
  • Top K:输入模型用来生成下一个标记的标记选择数量。
  • Top P:使用此选项设置完成结果应使用的概率。使用较低的值可忽略概率较低的选项。

模板和示例#

Chat with local LLMs using n8n and Ollama

by Mihai Farcas

View template details
🔐🦙🤖 Private & Local Ollama Self-Hosted AI Assistant

by Joseph LePage

View template details
Auto Categorise Outlook Emails with AI

by Wayne Simpson

View template details
Browse Ollama Chat Model integration templates, or search all templates

相关资源#

有关该服务的更多信息,请参阅 LangChain 的 Ollama 聊天模型文档

查看 n8n 的高级 AI 文档。

常见问题#

有关常见问题或疑问及建议的解决方案,请参阅常见问题

自托管 AI 入门套件#

刚开始使用 AI 和自托管 n8n?试试 n8n 的自托管 AI 入门套件,使用 Ollama、Qdrant 和 PostgreSQL 开始构建概念验证或演示环境。

此页面是否
💬 微信

🚀 与作者交流

关注公众号
n8n实战笔记公众号
n8n实战笔记
📚 教程 💡 案例 🔧 技巧
添加微信
添加作者微信
1对1 专业指导
⚡ 快答 🎯 定制 🚀 支持