Azure OpenAI聊天模型节点#
使用Azure OpenAI聊天模型节点可以将OpenAI的聊天模型与对话式智能体一起使用。
在此页面上,您将找到Azure OpenAI聊天模型节点的节点参数和更多资源的链接。
凭证
您可以在这里找到此节点的身份验证信息。
子节点中的参数解析
子节点在使用表达式处理多个项目时,与其他节点的行为不同。
大多数节点(包括根节点)接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name
值的输入,表达式 {{ $json.name }}
会依次解析为每个名称。
在子节点中,表达式始终解析为第一个项目。例如,给定五个 name
值的输入,表达式 {{ $json.name }}
始终解析为第一个名称。
节点参数#
- 模型:选择用于生成完成的模型。
节点选项#
- 频率惩罚:使用此选项控制模型重复自身的概率。更高的值减少模型重复自身的概率。
- 最大令牌数:输入使用的最大令牌数,这设置了完成的长度。
- 响应格式:选择文本或JSON。JSON确保模型返回有效的JSON。
- 存在惩罚:使用此选项控制模型讨论新话题的概率。更高的值增加模型讨论新话题的概率。
- 采样温度:使用此选项控制采样过程的随机性。更高的温度创建更多样化的采样,但增加幻觉的风险。
- 超时:输入最大请求时间(毫秒)。
- 最大重试次数:输入重试请求的最大次数。
- Top P:使用此选项设置完成应使用的概率。使用更低的值来忽略概率较低的选项。
代理限制#
此节点不支持NO_PROXY
环境变量。
模板和示例#
相关资源#
有关该服务的更多信息,请参阅LangChain的Azure OpenAI文档。
查看 n8n 的高级 AI 文档。
此页面是否
微信
🚀 与作者交流
关注公众号

n8n实战笔记
📚 教程 💡 案例 🔧 技巧
📚 教程 💡 案例 🔧 技巧
添加微信

1对1 专业指导
⚡ 快答 🎯 定制 🚀 支持
⚡ 快答 🎯 定制 🚀 支持