跳过内容
LlamaIndex
忠实度评估器
主页
学习
用例
示例
组件指南
高级主题
API参考
开源社区
LlamaIndex
主页
主页
高层概念
安装与设置
如何阅读这些文档
入门示例
入门示例
入门教程 (使用 OpenAI)
入门教程 (使用本地 LLM)
探索 LlamaIndex 视频系列
常见问题解答 (FAQ)
入门工具
入门工具
RAG CLI
学习
学习
使用 LLM
构建 Agent
构建 Agent
使用现有工具
维护状态
流式输出和事件
人工参与循环 (Human in the Loop)
多 Agent 工作流
构建工作流
构建工作流
基本工作流
分支和循环
流式事件
流式输出和事件
并发执行
工作流子类化
嵌套工作流
可观测性
无界语法
构建 RAG Pipeline
构建 RAG Pipeline
加载与摄取
加载与摄取
加载数据 (摄取)
LlamaHub
从 LlamaCloud 加载
索引与嵌入
存储
查询
结构化数据提取
结构化数据提取
使用结构化 LLM
结构化预测
低层级提取
跟踪和调试
评估
评估
评估
成本分析
成本分析
使用模式
综合应用
综合应用
全栈 Web 应用
全栈 Web 应用
使用 LlamaIndex 构建全栈 Web 应用指南
使用 Delphic 构建全栈 LlamaIndex Web 应用指南
问答模式 (Q&A Patterns)
问答模式 (Q&A Patterns)
术语和定义提取指南
聊天机器人
聊天机器人
如何构建聊天机器人
结构化数据
结构化数据
用例
用例
Prompting
问答 (RAG)
聊天机器人
Agent
结构化数据提取
多模态应用
微调
示例
示例
Agent
Agent
GPT Builder 示例
结构化数据
FunctionAgent / AgentWorkflow 基础介绍
使用 AgentWorkflow 的多 Agent 研究工作流
Agent Workflow + 使用 AgentQL 的研究助手
Function Calling Anthropic Agent
Function Calling AWS Bedrock Converse Agent
使用 LlamaIndex 的预构建 CodeAct Agent
从头开始创建 CodeAct Agent
聊天记忆缓冲区
简单可组合记忆
聊天摘要记忆缓冲区
向量记忆
Function Calling Mistral Agent
多文档 Agent (V1)
Function Calling NVIDIA Agent
用于博客创建的文档研究助手
由 NVIDIA NIM 提供支持的子问题查询引擎
上下文增强的 Function Calling Agent
解决 OpenAI Agent 工具描述冗长的变通方法
OpenAI Agent + 查询引擎实验手册
检索增强 Agent
带有查询引擎工具的 Agent
ReAct Agent - 使用计算器工具的简单介绍
带有查询引擎 (RAG) 工具的 ReAct Agent
使用 Return Direct 工具控制 Agent 推理循环
聊天引擎
聊天引擎
聊天引擎 - 最佳模式
聊天引擎 - Condense Plus Context 模式
聊天引擎 - Condense Question 模式
聊天引擎 - Context 模式
聊天引擎 - OpenAI Agent 模式
带有 个性 ✨ 的聊天引擎
聊天引擎 - ReAct Agent 模式
聊天引擎 - Simple Mode REPL
手册
手册
使用 LlamaIndex 实现 GraphRAG
使用 LlamaIndex 实现 GraphRAG - V2
AirtrainAI 手册
Anthropic Haiku 手册
使用可信语言模型构建可信 RAG
MistralAI 的 Codestral 手册
Cohere init8 和二进制嵌入检索评估
上下文检索
CrewAI + LlamaIndex 手册
Llama3 手册
使用 Intel Gaudi 的 LLM 手册
使用 Groq 的 Llama3 手册
使用 Ollama 和 Replicate 的 Llama3 手册
MistralAI 手册
mixedbread Rerank 手册
使用 MongoDB 和 LlamaIndex 优化相关性
Oracle AI 向量搜索与文档处理
LlamaIndex 组件
评估 RAG 系统
摄取 Pipeline
元数据提取
路由器查询引擎和子问题查询引擎
无界语法
多模态应用
多模态 RAG 系统
使用 LlamaParse 的高级 RAG
Prometheus-2 手册
使用 Toolhouse 的销售勘探工作流
定制
定制
Azure OpenAI
ChatGPT
HuggingFace LLM - Camel-5b
HuggingFace LLM - StableLM
聊天 Prompt 定制
补全 Prompt 定制
流式处理
聊天引擎流式处理 - Condense Question 模式
数据连接器
数据连接器
Google AlloyDB for PostgreSQL -
Chroma 阅读器
Google Cloud SQL for PostgreSQL -
DashVector 阅读器
数据库阅读器
DeepLake 阅读器
Discord 阅读器
Docling 阅读器
Faiss 阅读器
Github Repo 阅读器
Google Chat 阅读器测试
Google Docs 阅读器
Google Drive 阅读器
Google Maps 文本搜索阅读器
Google Sheets 阅读器
Make 阅读器
Mbox 阅读器
Milvus 阅读器
MongoDB 阅读器
MyScale 阅读器
Notion 阅读器
Obsidian 阅读器
Oxylabs 阅读器
Pathway 阅读器
预处理
Psychic 阅读器
Qdrant 阅读器
Slack 阅读器
Twitter 阅读器
Weaviate 阅读器
网页阅读器
Zyte Serp 阅读器
Deplot 阅读器示例
HTML 标签阅读器
Oracle AI 向量搜索:文档处理
简单目录阅读器
SimpleDirectoryReader 并行处理
通过远程文件系统的简单目录阅读器
探索 LlamaIndex
探索 LlamaIndex
Discord 线程管理
文档存储
文档存储
Google AlloyDB for PostgreSQL - &
示例:将 Azure Table Storage 作为文档存储
Google Cloud SQL for PostgreSQL - &
文档存储示例
Dynamo DB 文档存储示例
Firestore 示例
MongoDB 示例
Redis 文档存储+索引存储示例
Tablestore 示例
嵌入
嵌入
Anyscale 嵌入
LangChain 嵌入
OpenAI 嵌入
Aleph Alpha 嵌入
Bedrock 嵌入
使用 Clarifai 的嵌入
Cloudflare Workers AI 嵌入
CohereAI 嵌入
自定义嵌入
Dashscope 嵌入
Databricks 嵌入
Deepinfra
Elasticsearch 嵌入
Qdrant FastEmbed 嵌入
Fireworks 嵌入
Google Gemini 嵌入
Gigachat
Google GenAI 嵌入
Google PaLM 嵌入
使用 HuggingFace 的本地嵌入
IBM watsonx.ai
在 Intel CPU 上使用 IPEX-LLM 的本地嵌入
在 Intel GPU 上使用 IPEX-LLM 的本地嵌入
Jina 8K 上下文窗口嵌入
Jina 嵌入
Llamafile 嵌入
LLMRails 嵌入
MistralAI 嵌入
Mixedbread AI 嵌入
ModelScope 嵌入
Nebius 嵌入
Netmind AI 嵌入
Nomic 嵌入
NVIDIA NIMs
Oracle Cloud Infrastructure (OCI) 数据科学服务
Oracle Cloud Infrastructure 生成式 AI
Ollama 嵌入
使用 OpenVINO 的本地嵌入
使用 Optimum-Intel 优化的嵌入模型
Oracle AI 向量搜索:生成嵌入
PremAI 嵌入
使用 LlamaIndex 与部署在 Amazon SageMaker 端点的嵌入交互
文本嵌入推理
TextEmbed - 嵌入推理服务器
Together AI 嵌入
Upstage 嵌入
使用 LlamaIndex 与部署在 Vertex AI 端点的嵌入交互
VoyageAI 嵌入
Yandexgpt
评估
评估
AIMon
BEIR 域外基准测试
🚀 RAG/LLM 评估器 - DeepEval
HotpotQADistractor 示例
问题生成
RAGChecker:用于诊断 RAG 的细粒度评估框架
自纠正查询引擎 - 评估与重试
Tonic Validate 评估器
如何将 UpTrain 与 LlamaIndex 一起使用
答案相关性和上下文相关性评估
BatchEvalRunner - 运行多个评估
正确性评估器
忠实度评估器
目录
忠实度评估器
生成问题上的基准测试
指导原则评估器
在 MT-Bench 人工判断上对 LLM 评估器进行基准测试
在 Mini MT-Bench (单次评分) 上对 LLM 评估器进行基准测试
评估多模态 RAG
成对评估器
使用 Prometheus 模型进行评估
相关性评估器
检索评估
嵌入相似度评估器
🏔️ 使用 Argilla 的 RAG 工作流中的 Step-back Prompting
微调
微调
如何使用 LlamaIndex 微调交叉编码器
使用 NUDGE 微调语料库嵌入
微调嵌入
在任何黑盒嵌入模型之上微调适配器
用于微调 GPT-3.5 评判者(正确性)的知识蒸馏
用于微调 GPT-3.5 评判者(成对)的知识蒸馏
使用 Finetuning API 微调 MistralAI 模型
微调 GPT-3.5-Turbo
使用 Function Calling 进行微调
微调 gpt-3.5 ReAct Agent 以改进思维链
自定义 Cohere Reranker
路由器微调
摄取
摄取
高级摄取 Pipeline
异步摄取 Pipeline + 元数据提取
摄取 Pipeline + 文档管理
构建基于 Google Drive 文件的实时 RAG Pipeline
摄取 Pipeline 并行化
Redis 摄取 Pipeline
LLM
LLM
AI21
Aleph Alpha
Anthropic
Anthropic Prompt 缓存
Anyscale
ASI LLM
Azure AI 模型推理
Bedrock
ChatGPT
Bedrock Converse
Cerebras
Clarifai LLM
Cleanlab 可信语言模型
Cohere
DashScope LLM
Databricks
DeepInfra
DeepSeek
EverlyAI
Fireworks
Fireworks Function Calling 手册
Friendli
Gemini
Google GenAI
Groq
Hugging Face LLM
Intel CPU 上的 IPEX-LLM
在 Intel CPU 上使用 IPEX-LLM 的本地嵌入
Intel GPU 上的 IPEX-LLM
Konko
Langchain
LiteLLM
Replicate - Llama 2 13B
🦙 x 🦙 Rap Battle
Llama API
LlamaCPP
llamafile
LLM 预测器
LM Studio
LocalAI
Maritalk
MistralRS LLM
MistralAI
ModelScope LLM
Monster API <> LlamaIndex
MyMagic AI LLM
Nebius LLM
Netmind AI LLM
Neutrino AI
Nvidia TensorRT-LLM
Oracle Cloud Infrastructure (OCI) 数据科学服务
Oracle Cloud Infrastructure (OCI) 数据科学服务
NVIDIA 的 LLM 文本补全 API
Nvidia Triton
Oracle Cloud Infrastructure 数据科学
OctoAI
Ollama 嵌入
Ollama - Llama 3.1
Ollama - Gemma
OpenAI
OpenAI JSON 模式 vs. Function Calling 数据提取
OpenAI Responses API
OpenLLM
OpenRouter
OpenVINO GenAI LLM
OpenVINO LLM
使用 IPEX 后端优化的 Optimum Intel LLM
AlibabaCloud-PaiEas
PaLM
Perplexity
Pipeshift
Portkey
Predibase
PremAI LlamaIndex
百度智能云千帆 LLM 平台客户端
RunGPT
使用 LlamaIndex 与部署在 Amazon SageMaker 端点的 LLM 交互
SambaNova Systems
Together AI LLM
Upstage
Vertex AI
Replicate - Vicuna 13B
vLLM
Xorbits Inference
Yi
Llama 数据集
Llama 数据集
从 LlamaHub 下载 LlamaDataset
对 RAG Pipeline 进行基准测试
提交模板 Notebook
向 LlamaHub 贡献 LlamaDataset
Llama Hub
Llama Hub
LlamaHub 演示
Ollama Llama Pack 示例
Llama Pack - 简历筛选器 📄
Llama Pack 示例
低层级
低层级
从头开始构建评估
从头开始构建高级融合检索器
从头开始构建数据摄取
从头开始构建 RAG (仅限开源!)
从头开始构建响应合成
从头开始构建检索
从头开始构建路由器
从头开始构建(非常简单的)向量存储
托管索引
托管索引
BGEM3Demo
Google 生成式语言语义检索器
PostgresML 托管索引
Vertex AI 上的 Google Cloud LlamaIndex 用于 RAG
语义检索器基准测试
Vectara 托管索引
记忆
记忆
Mem0
元数据提取器
元数据提取器
使用 Llama Index 的上下文检索
实体元数据提取
元数据提取和增强 (使用 Marvin)
提取元数据以改进文档索引和理解
自动元数据提取以改进检索 + 合成
Pydantic 提取器
多模态
多模态
使用 LlamaIndex 的 Chroma 多模态示例
使用 Anthropic 模型进行图像推理的多模态 LLM
使用 Azure OpenAI GPT-4o mini 进行图像推理的多模态 LLM
使用 Cohere 多模态嵌入进行多模态检索
使用 DashScope qwen-vl 模型进行图像推理的多模态 LLM
使用 Google 的 Gemini 模型进行图像理解并使用 LlamaIndex 构建检索增强生成的多模态 LLM
多模态结构化输出:GPT-4o 与其他 GPT-4 变体
GPT4-V 实验,包括一般性问题、特定问题和思维链 (COT) Prompting 技术。
使用 GPT4V 和多模态索引/检索器的高级多模态检索
使用 CLIP 嵌入进行图像到图像检索,并使用 GPT4V 进行图像相关性推理
使用 VoyageAI 多模态嵌入进行多模态检索
使用 LlamaIndex 的 LlaVa 示例
检索增强图像字幕生成
使用 Mistral 进行图像推理的多模态 LLM
[Beta] 多模态 ReAct Agent
多模态 GPT4V Pydantic Program
使用 Nomic Embed 和 Anthropic 的多模态 RAG。
使用 GPT 文本嵌入和 CLIP 图像嵌入进行维基百科文章多模态检索
使用 OpenAI GPT4V 和 LanceDB 向量存储处理视频的多模态 RAG
使用 VideoDB 的多模态 RAG
多模态 rag guardrail gemini llmguard llmguard
使用 Nebius 的多模态模型
使用 NVIDIA 端点进行图像推理的多模态 LLM
使用 OpenAI GPT-4V 模型进行图像推理
使用 OpenVINO 的本地多模态 Pipeline
使用 Replicate LlaVa, Fuyu 8B, MiniGPT4 模型进行图像推理的多模态 LLM
半结构化图像检索
多租户
多租户
使用 LlamaIndex 的多租户 RAG
节点解析器与文本分割器
节点解析器与文本分割器
语义分块器
语义双重合并分块
TopicNodeParser
节点后处理器
节点后处理器
AIMon Rerank
Cohere Rerank
使用 ColPali, Cohere Reranker 和多模态嵌入进行重新排名
Colbert Rerank
基于文件的节点解析器
FlagEmbeddingReranker
Jina Rerank
LLM Reranker 演示 (了不起的盖茨比)
LLM Reranker 演示 (2021 Lyft 10-k)
长上下文重排序
元数据替换 + 节点句子窗口
Mixedbread AI Rerank
句子嵌入优化器
Oracle Cloud Infrastructure (OCI) 数据科学服务
PII 掩码
前向/后向增强
时新性过滤
SentenceTransformerRerank
结构化 LLM Reranker 演示 (2021 Lyft 10-k)
时间加权 Rerank
VoyageAI Rerank
OpenVINO Rerank
在 Intel CPU 上使用 IPEX-LLM 的本地嵌入
RankGPT Reranker 演示 (梵高 Wiki)
RankLLM Reranker 演示 (梵高 Wiki)
对象存储
对象存储
类
可观测性
可观测性
Aim Callback
HoneyHive LlamaIndex 跟踪器
手册 LlamaIndex 集成 (Instrumentation 模块)
Langfuse Callback Handler
使用 PostHog 和 Langfuse 分析和调试 LlamaIndex 应用
Llama Debug Handler
MLflow 跟踪和 E2E 集成与 LlamaIndex
OpenInference Callback Handler + Arize Phoenix
使用 OpenLLMetry 的可观测性
使用 Opik 记录跟踪
PromptLayer Handler
Token 计数 Handler
UpTrain Callback Handler
Wandb Callback Handler
输出解析器
输出解析器
Guardrails 输出解析
Langchain 输出解析
DataFrame 结构化数据提取
Evaporate 示例
用于结构化提取的 Function Calling Program
Guidance Pydantic Program
子问题查询引擎的 Guidance
LLM Pydantic Program
LM Format Enforcer Pydantic Program
LM Format Enforcer 正则表达式生成
LLM Pydantic Program - NVIDIA
OpenAI Pydantic Program
用于子问题查询引擎的 OpenAI function calling
参数优化器
参数优化器
[进行中] RAG 的超参数优化
Prompt
Prompt
高级 Prompt 技术 (变量映射, 函数)
RAG 中的 EmotionPrompt
在高级模块中访问/定制 Prompt
使用 RichPromptTemplate 构建
属性图
属性图
使用属性图存储
使用预定义 Schema 构建属性图
属性图索引
定义自定义属性图检索器
Memgraph 属性图索引
Neo4j 属性图索引
查询引擎
查询引擎
带有自定义检索器的检索器查询引擎 - 简单混合搜索
JSONalyze 查询引擎
联合问答摘要查询引擎
检索器路由器查询引擎
路由器查询引擎
SQL 自动向量查询引擎
SQL 连接查询引擎
SQL 路由器查询引擎
CitationQueryEngine
Cogniswitch 查询引擎
定义自定义查询引擎
Ensemble 查询引擎指南
FLARE 查询引擎
JSON 查询引擎
知识图谱查询引擎
知识图谱 RAG 查询引擎
结构化分层检索
Pandas 查询引擎
递归检索器 + 查询引擎示例
[Beta] 使用 PGVector 的 Text-to-SQL
带有 Pydantic 输出的查询引擎
递归检索器 + 文档 Agent
针对 Tesla 10K 的联合表格/语义问答
子问题查询引擎
查询 Pipeline
查询 Pipeline
LlamaIndex 查询 Pipeline 介绍
带有异步/并行执行的查询 Pipeline
查询 Pipeline 聊天引擎
针对 Pandas DataFrame 的查询 Pipeline
带有路由的查询 Pipeline
用于高级 Text-to-SQL 的查询 Pipeline
查询转换
查询转换
HyDE 查询转换
多步查询引擎
查询转换手册
响应合成器
响应合成器
Pydantic 树状摘要
使用召回任务对长上下文 LLM 进行压力测试
Refine
使用召回任务对长上下文 LLM 进行压力测试
带有结构化答案过滤的 Refine
树状摘要
检索器
检索器
自动合并检索器
比较结构化检索方法 (自动检索 vs. 递归检索)
Bedrock (知识库)
BM25 检索器
可组合对象
Activeloop Deep Memory
Ensemble 检索指南
使用长上下文嵌入 (Together.ai) 的分块 + 文档混合检索
Pathway 检索器
互易 Rerank 融合检索器
递归检索器 + 节点引用 + Braintrust
递归检索器 + 节点引用
相对分数融合和基于分布的分数融合
路由器检索器
简单融合检索器
从 Vectara 索引自动检索
Vertex AI 搜索检索器
Videodb 检索器
You.com 检索器
工具
工具
使用 AgentQL 构建浏览器 Agent
OnDemandLoaderTool 教程
Azure Code Interpreter 工具规范
Cassandra 数据库工具
评估查询引擎工具
带有 callback 的函数调用
转换
转换
转换评估
用例
10K 分析
Prompting
10Q 分析
电子邮件数据提取
Github Issue 分析
向量存储
向量存储
AWSDocDBDemo
阿里云 OpenSearch 向量存储
Amazon Neptune - Neptune Analytics 向量存储
Chroma 阅读器
AnalyticDB
使用 LlamaIndex 将 ApertureDB 作为向量存储。
Astra DB
简单向量存储 - 异步索引创建
Awadb 向量存储
Azure AI 搜索
Azure CosmosDB MongoDB 向量存储
Azure Cosmos DB No SQL 向量存储
Bagel 向量存储
Bagel Network
百度 VectorDB
Cassandra 向量存储
Chroma + Fireworks + Nomic 使用 Matryoshka 嵌入
Chroma
ClickHouse 向量存储
CouchbaseVectorStoreDemo
DashVector 阅读器
DashVector 向量存储
Databricks 向量搜索
Deep Lake 向量存储快速入门
DocArray Hnsw 向量存储
DocArray 内存向量存储
DuckDB
Elasticsearch 向量存储
Elasticsearch
Epsilla 向量存储
Faiss 向量存储
Firestore 向量存储
Hnswlib
Hologres
Jaguar 向量存储
使用 LlamaIndex 和 KDB.AI 向量存储进行带有时间过滤的高级 RAG
LanceDB 向量存储
Lantern 向量存储 (自动检索器)
Lantern 向量存储
Lindorm
带有异步 API 的 Milvus 向量存储
带有全文搜索的 Milvus 向量存储
带有混合搜索的 Milvus 向量存储
Milvus 向量存储
Milvus 向量存储 - 元数据过滤
MongoDB Atlas 向量存储
MongoDB Atlas + Fireworks AI RAG 示例
MongoDB Atlas + OpenAI RAG 示例
MyScale 向量存储
Neo4j 向量存储
Nile 向量存储 (多租户 PostgreSQL)
ObjectBox VectorStore 示例
OceanBase 向量存储
Opensearch 向量存储
pgvecto.rs
Pinecone 向量存储 - 混合搜索
Pinecone 向量存储
Qdrant 向量存储
Qdrant 向量存储 - 元数据过滤
Qdrant 向量存储 - 默认 Qdrant 过滤器
Redis 向量存储
Relyt
Rockset 向量存储
简单向量存储
本地 Llama2 + VectorStoreIndex
Llama2 + VectorStoreIndex
简单向量存储 - 最大边际相关性检索
S3/R2 存储
Supabase 向量存储
TablestoreVectorStore
Tair 向量存储
腾讯云 VectorDB
TiDB 向量存储
Timescale 向量存储 (PostgreSQL)
txtai 向量存储
Typesense 向量存储
Upstash 向量存储
VearchDemo
Google Vertex AI 向量搜索
Vespa 向量存储示例
Weaviate 向量存储 - 混合搜索
Weaviate 向量存储
从 Weaviate 向量数据库自动检索
Weaviate 向量存储元数据过滤
WordLift 向量存储
Zep 向量存储
从向量数据库自动检索
Chroma 向量存储
指南:将向量存储索引与现有 Pinecone 向量存储一起使用
Chroma 向量存储
指南:将向量存储索引与现有 Weaviate 向量存储一起使用
Gel 向量存储
Neo4j 向量存储 - 元数据过滤
Oracle AI 向量搜索:向量存储
简单到高级指南,附带自动检索 (使用 Pinecone + Arize Phoenix)
Pinecone 向量存储 - 元数据过滤
Postgres 向量存储
使用 Qdrant BM42 的混合搜索
Qdrant 混合搜索
工作流
工作流
用于高级 Text-to-SQL 的工作流
联合问答摘要查询引擎
无
工作流运行检查点
构建带有内联引用的 RAG
纠正性 RAG 工作流
Function Calling Agent 工作流
选择你的冒险工作流 (Human In The Loop)
LongRAG 工作流
多步查询引擎
带有反思的多策略工作流
相同事件并行执行示例
工作流运行检查点
查询规划工作流
带有 Reranking 的 RAG 工作流
ReAct Agent 工作流
用于结构化输出的反思工作流
Self-Discover 工作流
SQL 自动向量查询引擎
作为工作流的子问题查询引擎
工作流手册:详细介绍工作流的所有特性
组件指南
组件指南
模型
模型
独立使用
LLM
AI21
构建 Agent
定制 LLM
可用 LLM 集成
嵌入
多模态
Prompt
Prompt 使用模式
高级 Prompt 技术 (变量映射, 函数)
加载
加载
文档和节点
文档和节点
使用文档
使用节点
SimpleDirectoryReader
路由器查询引擎和子问题查询引擎
数据连接器
LlamaParse
Google AlloyDB for PostgreSQL -
综合应用
模块指南
节点解析器 / 文本分割器
节点解析器 / 文本分割器
节点解析器模块
摄取 Pipeline
元数据提取
转换
索引
索引
索引指南
向量存储索引
文档管理
定义自定义属性图检索器
模块
LlamaIndex
路由器查询引擎和子问题查询引擎
存储
查询
向量存储
文档存储
索引存储
聊天存储
键值存储
持久化与加载数据
定制存储
查询
结构化数据提取
查询引擎
响应模式
带有自定义检索器的检索器查询引擎 - 简单混合搜索
综合应用
支持模块
聊天引擎流式处理 - Condense Question 模式
节点解析器 / 文本分割器
聊天引擎
检索
聊天引擎 - 最佳模式
综合应用
节点解析器 / 文本分割器
检索
检索器模块
检索器模式
节点后处理器
节点后处理器模块
AIMon Rerank
响应合成
响应合成
响应合成模块
路由
工作流
查询 Pipeline (已弃用)
查询 Pipeline (已弃用)
模块使用
综合应用
节点解析器 / 文本分割器
结构化输出
结构化输出
输出解析模块
(已弃用) 查询引擎 + Pydantic 输出
Pydantic Programs
记忆
多模态应用
GPT Builder 示例
工具
工作流
查询 Pipeline (已弃用)
评估
使用模式 (响应评估)
AIMon
使用模式 (检索)
Llama 数据集
存储
Llama 数据集
贡献 LabelledRagDataset
使用 LabelledRagDataset 进行评估
使用 LabelledEvaluatorDataset 评估评估器
Instrumentation
无界语法
Aim Callback
设置
Llama Deploy
Llama Deploy
入门
核心组件
手动编排
Python SDK
CLI
高级主题
高级主题
构建用于生产环境的高性能 RAG 应用
基本策略
Agent 策略
检索
高级检索策略
检索器模块
查询转换
按组件评估
评估
AIMon
端到端评估
编写自定义模块
使用模式 (响应评估)
示例
从头开始构建 RAG (低层级)
API参考
API参考
Callback
多模态应用
GPT Builder 示例
Callback
Agentops
Aim
Argilla
Arize phoenix
Deepeval
Honeyhive
Langfuse
Literalai
Llama debug
Openinference
Opik
工作流运行检查点
Promptlayer
Token 计数器
Uptrain
Wandb
Condense plus context
检索
聊天引擎 - 最佳模式
Condense question
Context
Simple
Adapter
多模态
Anyscale 嵌入
Alephalpha
阿里云 aisearch
自动嵌入
ASI LLM
Azure 推理
Azure openai
Clarifai
Bedrock Converse
Clip
Cloudflare workersai
Dashscope
DashScope LLM
Fastembed
DeepInfra
Elasticsearch 嵌入
Epsilla 向量存储
Gaudi
Fireworks Function Calling 手册
Google
Google GenAI
Google GenAI 嵌入
Google genai
Huggingface
工作流运行检查点
Huggingface api
Huggingface openvino
Huggingface optimum
Huggingface optimum intel
Ibm
Instructor
Ipex llm
Jinaai
Litellm
LiteLLM
Llamafile
Llm rails
Mistralai
Mixedbreadai
Modelscope
Nebius
Netmind
Nomic
Nvidia
Oci 数据科学
Oci genai
Ollama
工作流运行检查点
Opea
Openai
Openai like
Openvino genai
Oracleai
Premai
Sagemaker endpoint
Siliconflow
文本嵌入推理
Textembed
Together
Vertex
Vertex AI
Vertex endpoint
Vllm
Voyageai
Xinference
智谱AI
评估
答案相关性
使用模式 (响应评估)
AIMon
上下文相关性
正确性
数据集生成
忠实度
指导原则
指标
多模态
成对比较
查询响应
响应
语义相似度
检索
Tonic validate
图 RAG
图 RAG
Cognee
索引
索引
Bge m3
Colbert
文档摘要
Fastembed
关键词
Google genai
知识图谱
Llama cloud
Postgresml
属性图
摘要
树状
Vectara
向量
Vertexai
摄取
工作流运行检查点
Instrumentation
高级摄取 Pipeline
设置
事件处理程序
事件类型
Span 处理程序
Span 类型
LLM
Ai21
AI21
工作流运行检查点
Asi
阿里云 aisearch
自动嵌入
Anthropic Prompt 缓存
ASI LLM
Bedrock converse
Azure openai
Clarifai
Bedrock Converse
Cleanlab
Clarifai LLM
Clip
上下文
DashScope LLM
Cortex
自定义 llm
Deepseek
Fastembed
DeepInfra
Elasticsearch 嵌入
Everlyai
Keywordsai
Fireworks Function Calling 手册
Gemini
Google
Google GenAI
Google GenAI 嵌入
Huggingface
工作流运行检查点
Hugging Face LLM
Huggingface api
Huggingface openvino
Instructor
Jinaai
Llama api
Langchain
LiteLLM
Llamafile
Llama cpp
Lmstudio
Llm rails
Localai
Meta
MistralRS LLM
Mistral rs
Mlx
Mixedbreadai
Monsterapi
Nebius
Mymagic
Neutrino
Netmind
Nomic
Novita
Nvidia tensorrt
Oci 数据科学
Nvidia triton
Octoai
Oci genai
Ollama
Openllm
Opea
Openai
Openai like
Openvino genai
Openrouter
Openvino
Optimum intel
Oracleai
Paieas
Palm
千帆
Pipeshift
Portkey
Predibase
PremAI LlamaIndex
Sagemaker endpoint
Reka
Replicate
Rungpt
Sambanovasystems
Siliconflow
Stepfun
文本嵌入推理
工作流运行检查点
文本生成推理
You
Vertex
工作流运行检查点
Vertex AI
Vertex endpoint
Voyageai
智谱AI
Llama 数据集
Llama 数据集
答案相关性
Llama Deploy
从 LlamaHub 下载 LlamaDataset
apiserver
入门
control_plane
deploy
message_consumers
message_publishers
messages
编排器
服务
CLI
类型
消息队列
消息队列
apache_kafka
rabbitmq
redis
simple
solace
Llama 包
Llama 包
Agent 搜索检索器
Agent coa
Agent lats
Agent llm 编译器
亚马逊产品提取
Arize phoenix 查询引擎
自动合并检索器
Chroma 自动检索
代码层次结构
Cogniswitch agent
Cohere 引用聊天
纠正性 rag
Deeplake deepmemory 检索器
Deeplake 多模态检索
密集 x 检索
差分隐私简单数据集
评估器基准测试工具
融合检索器
模糊引用
Gmail openai agent
Gradio agent 聊天
Gradio react agent 聊天机器人
推断 检索 重新排名
Koda 检索器
Llama 数据集元数据
Llama guard 审核员
Llava 补全
Longrag
Agent 混合体
多文档 agent
多租户 rag
多文档自动检索
Nebulagraph 查询引擎
Neo4j 查询引擎
节点解析器语义分块
Ollama 查询引擎
Panel 聊天机器人
查询理解 agent
Raft 数据集
Rag cli 本地
Rag 评估器
Rag 融合查询 pipeline
Ragatouille 检索器
Raptor
递归检索器
简历筛选器
重试引擎 weaviate
Secgpt
Self discover
Self rag
句子窗口检索器
Snowflake 查询引擎
股票市场数据查询引擎
Streamlit 聊天机器人
子问题 weaviate
表格
Timescale 向量自动检索
Trulens eval 包
Vectara rag
工作流运行检查点
Voyage 查询引擎
Zenguard
Zephyr 查询引擎
LlamaDeploy
LlamaDeploy
聊天记忆缓冲区