Meilisearch 的聊天补全功能支持 AI 驱动的对话式搜索,允许用户使用自然语言提问,并根据您索引的内容获得直接答案。此功能将传统搜索体验转变为交互式对话。
这是一项实验性功能。请使用 Meilisearch Cloud UI 或实验性功能端点来激活它
curl \
  -X PATCH 'MEILISEARCH_URL/experimental-features/' \
  -H 'Content-Type: application/json' \
  --data-binary '{
    "chatCompletions": true
  }'

什么是对话式搜索?

对话式搜索界面允许用户:
  • 使用自然语言提问,而不是使用关键词
  • 接收直接答案,而不仅仅是文档链接
  • 在多个问题之间保持上下文
  • 获得基于您实际内容的回复
这种方法弥合了传统搜索和现代 AI 体验之间的差距,使信息更容易获取和查找。

传统搜索工作流程

  1. 用户输入关键词
  2. Meilisearch 返回匹配文档
  3. 用户查看结果以查找答案

对话式搜索工作流程

  1. 用户用自然语言提问
  2. Meilisearch 检索相关文档
  3. AI 根据这些文档生成直接答案
  4. 用户可以提出后续问题

在以下情况下使用对话式搜索:

  • 用户需要针对特定问题的直接答案
  • 内容是信息性的(文档、知识库、常见问题解答)
  • 用户受益于后续问题
  • 自然语言交互改善了用户体验

在以下情况下使用传统搜索:

  • 用户需要浏览多个选项
  • 结果需要比较(电子商务产品、列表)
  • 精确匹配至关重要
  • 响应时间至关重要

使用聊天补全实现 RAG 管道

聊天补全功能在一个 API 端点中实现了完整的检索增强生成(RAG)管道。Meilisearch 的聊天补全将 RAG 创建整合到一个简化的过程中。
  1. 查询理解:自动将问题转换为搜索参数
  2. 混合检索:结合关键词和语义搜索以获得更好的相关性
  3. 答案生成:使用您选择的 LLM 生成回复
  4. 上下文管理:通过不断将完整对话推送到专用工具来维护对话历史记录

替代方案:MCP 集成

在将 Meilisearch 与 AI 助手和自动化工具集成时,请考虑使用 Meilisearch 的模型上下文协议 (MCP) 服务器。MCP 实现了各种 AI 平台和应用程序的标准化工具集成。

架构概览

聊天补全通过工作区运行,工作区是用于不同用例的独立配置。每个工作区都可以:
  • 使用不同的 LLM 源(OpenAI、Azure OpenAI、Mistral、Gemini、vLlm)
  • 应用自定义提示
  • 基于 API 密钥访问特定索引
  • 维护独立的对话上下文

关键组件

  1. 聊天端点/chats/{workspace}/chat/completions
    • 兼容 OpenAI 的接口
    • 支持流式响应
    • 处理索引搜索的工具调用
  2. 工作区设置/chats/{workspace}/settings
    • 配置 LLM 提供商和模型
    • 设置系统提示
    • 管理 API 凭据
  3. 索引集成:
    • 自动搜索相关索引
    • 使用现有的 Meilisearch 搜索功能
    • 遵守 API 密钥权限

安全注意事项

聊天补全功能与 Meilisearch 现有的安全模型集成
  • API 密钥权限:聊天仅访问提供 API 密钥可见的索引
  • 租户令牌:支持多租户应用程序
  • LLM 凭据:安全存储在工作区设置中
  • 内容隔离:响应仅基于索引内容

下一步

© . This site is unofficial and not affiliated with Meilisearch.