检索增强生成 — 一个关乎搜索的问题

搜索是构建最佳生成式 AI 体验时与大型语言模型 (LLM) 协同工作的核心基础架构。您只有一次机会通过数据提示 LLM 给出正确答案,因此相关性至关重要。使用 Elastic 通过检索增强生成 (RAG) 来增强 LLM。

Video thumbnail

了解 Elastic 的最新创新如何助力扩展生成式 AI 用例。

阅读博文

将 RAG 集成到您的应用中,并利用矢量数据库尝试不同的 LLM。

了解更多关于 Elasticsearch 实验室的信息

了解如何使用 Elasticsearch Relevance Engine™ 构建基于 RAG 的高级应用程序。

观看快速入门视频

Elastic 的优势

生产环境开箱即用,满足企业级规模需求

  • 加速推出生成式 AI 体验

    使用 Elasticsearch,可快速、大规模地推出您的生成式 AI 体验。

  • 适用于 RAG 的相关度最高的搜索引擎

    保持与最前沿的搜索技术(文本、语义、矢量、混合搜索)同步,集成重新排序工具,并运用学习排序 (LTR) 技术,为您提供最具相关性的搜索体验。

  • 轻松选择模型

    通过我们的开放式平台,简化模型选择和管理流程,从而实施高效、有效且能够适应未来需求的 RAG。

获得《财富》500 强企业的信赖,引领生成式 AI 创新潮流

让您的数据适配 RAG

RAG 通过直接访问相关专有数据,无需重新训练,即可扩展 LLM 的功能。当您将 RAG 与 Elastic 结合使用时,将可享受到以下优势:

  • 最先进的搜索技术
  • 简单的模型选择与轻松切换模型的能力
  • 安全的文档访问和基于角色的权限控制,确保您的数据安全无忧
检索增强生成 (RAG) 实际应用

彻底改变搜索体验

什么是检索增强生成?

检索增强生成 (RAG) 是一种通过整合专有数据源的相关信息来增强文本生成的模式。通过将特定领域的上下文信息提供给生成式模型,RAG 提高了生成的文本响应的准确性和相关性。

使用 Elasticsearch 搜索高相关性的上下文窗口,能够借助您的专有数据来提升 LLM 输出质量,并以一种既安全又高效的对话式体验向用户提供所需信息。

RAG 如何与 Elastic 配合使用

使用 Elasticsearch 增强 RAG 工作流

了解如何在 RAG 工作流中使用 Elastic 增强生成式 AI 体验。使用专有数据源轻松同步实时信息,以获得最佳、最相关的生成式 AI 响应。

机器学习推理管道会使用 Elasticsearch 采集处理器来高效地提取嵌入。通过将文本(BM25 匹配)与矢量 (kNN) 搜索无缝结合,它能够检索出得分最高的文档,从而支持上下文感知的响应生成。

用例

基于您的私有数据集运行的问答服务

利用 Elasticsearch 作为矢量数据库,结合使用 RAG,实现卓越的问答体验。

AI 搜索 — 实际应用

  • 客户聚焦

    Consensus 使用 Elastic 先进的语义搜索和 AI 工具升级学术研究平台。

  • 客户聚焦

    Cisco 在 Google Cloud 上利用 Elastic 打造 AI 驱动型搜索体验。

  • 客户聚焦

    佐治亚州立大学利用 AI 驱动型搜索增强了获取数据见解的能力,并对如何帮助学生利用该技术申请助学金进行了有益探索。

常见问题

AI 中的 RAG 是什么?

检索增强生成(通常简称为 RAG)是一种自然语言处理模式,旨在让企业能够搜索专有数据源,并提供基于大型语言模型生成的上下文信息。这样就能够在生成式 AI 应用场景中做出更准确、更实时的响应。