变更日志#
[2024-05-08]#
llama-index-core
[0.12.35]#
- 增加支持预填充
FunctionTool
的部分工具关键词参数 (#18658) - 修复/react 代理最大迭代次数跳过问题 (#18634)
- 处理预构建工作流程(例如
AgentWorkflow
)中边缘情况下的序列化问题 (#18628) - 采用新的基类重构内存 (#18594)
- 添加预构建内存块 (#18607)
llama-index-embeddings-autoembeddings
[0.1.0]#
- 支持来自 chonkie 的 AutoEmbeddings 集成 (#18578)
llama-index-embeddings-huggingface-api
[0.3.1]#
- 修复 huggingface-hub 的依赖版本 (#18662)
llama-index-indices-managed-vectara
[0.4.5]#
- 修复在 Vectara 中使用带有链式重排序器的 cutoff 参数时的错误 (#18610)
llama-index-llms-anthropic
[0.6.12]#
- anthropic 引文和工具调用 (#18657)
llama-index-llms-cortex
[0.3.0]#
- 用于认证的 Cortex 增强功能 2 (#18588)
llama-index-llms-dashscope
[0.3.3]#
- 修复 dashscope 工具调用解析 (#18608)
llama-index-llms-google-genai
[0.1.12]#
- 修复 google-genai llm 中修改对象引用错误 (#18616)
- feat(llama-index-llms-google-genai): 2.5-flash-preview 测试 (#18575)
- 修复 last_msg 索引问题 (#18611)
llama-index-llms-huggingface-api
[0.4.3]#
- Huggingface API 的任务和依赖项修复 (#18662)
llama-index-llms-litellm
[0.4.2]#
- 修复解析流式工具调用问题 (#18653)
llama-index-llms-meta
[0.1.1]#
- 支持 Meta Llama-api 作为 LLM 提供商 (#18585)
llama-index-node-parser-docling
[0.3.2]#
- 修复/docling 节点解析器元数据 (#186390)
llama-index-node-parser-slide
[0.1.0]#
- 添加 SlideNodeParser 集成 (#18620)
llama-index-readers-github
[0.6.1]#
- 修复: 为 GitHubIssuesClient 添加 follow_redirects=True (#18630)
llama-index-readers-markitdown
[0.1.1]#
- 修复 MarkItDown Reader 错误 (#18613)
llama-index-readers-oxylabs
[0.1.2]#
- 添加 Oxylabs 阅读器 (#18555)
llama-index-readers-web
[0.4.1]#
- 修复 Firecrawl 库调用不当的问题 (#18646)
- 添加 Oxylabs 阅读器 (#18555)
llama-index-storage-chat-store-gel
[0.1.0]#
- 添加 Gel 集成 (#18503)
llama-index-storage-docstore-gel
[0.1.0]#
- 添加 Gel 集成 (#18503)
llama-index-storage-kvstore-gel
[0.1.0]#
- 添加 Gel 集成 (#18503)
llama-index-storage-index-store-gel
[0.1.0]#
- 添加 Gel 集成 (#18503)
llama-index-utils-workflow
[0.3.2]#
- 修复 draw_all_possible_flows 的事件颜色 (#18660)
llama-index-vector-stores-faiss
[0.4.0]#
- 添加 Faiss Map 向量存储并修复缺失的 index_struct 删除问题 (#18638)
llama-index-vector-stores-gel
[0.1.0]#
- 添加 Gel 集成 (#18503)
llama-index-vector-stores-postgres
[0.5.2]#
- 添加索引元数据字段 (#18595)
[2025-04-30]#
- 将仓库从 poetry 迁移到 uv (#18524)
llama-index-core
[0.12.34]#
- 修复: 当 showprogress 为 False 时
aextract_table_summaries
导致不必要的输出 (#18528)
llama-index-embeddings-cohere
[0.4.1]#
- 修复带有自定义端点的 Cohere Embedding 多进程问题 (#18551)
llama-index-embeddings-openvino-genai
[0.5.0]#
- 添加 openvino genai embedding (#18569)
llama-index-llms-bedrock-converse
[0.5.0]#
- 增加对 AWS Bedrock 应用推理配置文件 的支持 (#18549)
llama-index-llms-google-genai
[0.1.10]#
- 2.5-flash-preview 测试 + 结构化预测变更/修复 (#18575)
- 解除 google genai llm 中的 pillow 依赖锁 (#18533)
- 正确合并工具消息 (#18527)
llama-index-llms-huggingface-api
[0.4.2]#
- 为 HuggingFaceInferenceAPI 添加提供商支持 (#18574)
llama-index-llms-vllm
[0.5.1]#
- 特性: 添加 is_chat_model 选项 (#18552)
llama-index-packs-code-hierarchy
[0.5.1]#
- Code Hierarchy Agent Pack 处理空文件和不同编码文件的问题 (#18538)
llama-index-postprocessor-cohere-rerank
[0.4.0]#
- 在 CohereRerank 中更新默认模型版本到 v3.0 (#18579)
llama-index-readers-database
[0.4.0]#
- 通过新功能和改进的文档增强 DatabaseReader (#18537)
llama-index-tools-mcp
[0.1.2]#
- 防止 MCP 连接挂起 (#18512)
llama-index-vector-stores-opensearch
[0.5.3]#
- 添加 OpensearchVectorClient 以有条件地检查 AOSS 的索引是否存在 (#18560)
llama-index-vector-stores-postgres
[0.5.1]#
- 在 PGVectorStore 中实现 aget_nodes 和 adelete (#18515)
- 允许 PGVectorStore 接受传入引擎 (#18507)
[2025-04-23]#
llama-index-core
[0.12.33 / 0.12.33.post1]#
- 捆绑更新的 tiktoken 编码,提高最低 tiktoken 版本 (#18509)
llama-index-vector-stores-milvus
[0.8.1]#
- Milvus Vector Store: 更新元数据过滤演示 (#18502)
[2025-04-21]#
llama-index-core
[0.12.32]#
- 修复媒体资源序列化问题 (#18496)
- 修复 react 代理提示更新问题 (#18494)
llama-index-indices-managed-vectara
[0.4.4]#
- 在 GC 时关闭 VectaraIndex 中的 "session" (#18484)
llama-index-llms-openai
[0.3.38]#
- 允许 openai 助手消息中的内容块 (#18495)
llama-index-llms-openvino-genai
[0.1.1]#
- 修复 openvino llm 初始化问题 (#18481)
llama-index-vector-stores-milvus
[0.8.0]#
- MilvusVectorStore: BM25 作为默认稀疏嵌入函数 (#18460)
[2025-04-16]#
llama-index-core
[0.12.31]#
- 修复/内存多模态内容序列化问题 (#18447)
- 向内存和后处理器基类添加异步功能 (#18438)
llama-index-callbacks-arize-pheonix
[0.5.1]#
- llama index 回调 arize phoenix python 版本更新 (#18466)
llama-index-graph-stores-nebula
[0.4.2]#
- 修复 nebula 属性获取问题 (#18461)
llama-index-indices-managed-vectara
[0.4.3]#
- 为 Vectara 添加了
llm_name
参数 (#18472)
llama-index-llms-cohere
[0.4.1]#
- 扩展 cohere 模型支持 (#18440)
llama-index-llms-llama-api
[0.4.0]#
- 通过包装 OpenAI 修复 LlamaAPI 集成问题 (#18437)
llama-index-llms-perplexity
[0.3.3]#
- 更新 Perplexity 实现以支持新模型 (#18442)
llama-index-llms-openai
[0.3.37]#
- 为 OpenAI 4.1 支持添加了模型名称 (#18456)
- 支持 o3 和 o4-mini (#18473)
- 在使用 Azure 的异步方法时,不要创建同步 openai 客户端 (#18471)
llama-index-storage-chat-store-sqlite
[0.1.0]#
- 特性: 添加 sqlite 聊天存储 (#18432)
llama-index-vector-stores-ApertureDB
[0.0.1]#
- 添加 ApertureDB 向量存储 (#18428)
llama-index-vector-stores-elasticsearch
[0.4.3]#
- 实现缺失的 BasePydanticVectorStore 方法 (#18454)
[2025-04-10]#
llama-index-core
[0.12.30]#
- 修复多代理状态格式化问题 (#18417)
- 默认对异步读取器方法使用 to_thread (#18418)
llama-index-callbacks-arize-pheonix
[0.5.0]#
- 连接新的 phoenix 跟踪选项以获取单独上下文 (#18415)
llama-index-graph-stores-nebula
[0.4.1]#
- 修复 nebula 属性获取问题 (#18423)
llama-index-llms-openai
[0.3.33]#
- 实际修复 OpenAIResponses 中的传参引用错误 (#18420)
[2024-04-08]#
llama-index-core
[0.12.29]#
- 在 AgentWorkflow 中更好地强制执行代理切换 (#18399)
- 重构等待事件以处理多个
wait_for_event
调用 (#18226) - 修复: 🐛 用
tree_sitter_language_pack
替换损坏且已停用的tree_sitter_languages
(#18387) - 修复 SentenceSplitter 在解析大量文本时代价高昂的 pop(0) 问题 (#18359)
llama-index-embeddings-huggingface
[0.5.3]#
- 在 HuggingFaceEmbedding 中添加切换进度条的选项 (#18404)
llama-index-embeddings-openai-like
[0.1.0]#
- 添加 OpenAILikeEmbedding,更新文档 (#18364)
llama-index-llms-bedrock-converse
[0.4.15]#
- 特性: 为 bedrock converse 添加多模态支持 (#18373)
- 支持 bedrock converse deepseek r1 (#18371)
llama-index-llms-ibm
[0.3.4]#
- 缓存 watsonx 上下文窗口 (#18350)
llama-index-llms-openai
[0.3.31]#
- 修复 openai json 解码错误 (#18352)
- 启用 openai 响应覆盖 (#18402)
llama-index-llms-vertex
[0.4.6]#
- 为 Gemini 模型添加 ImageBlock 和 TextBlock 支持 (#18344)
llama-index-graph-stores-kuzu
[0.7.0]#
- 更新到 Kuzu 0.9.0 (#18382)
llama-index-indices-managed-llama-cloud
[0.6.11]#
- 移除 org id kwarg (#18355)
llama-index-readers-microsoft-sharepoint
[0.5.1]#
- 修复 Sharepoint 文件夹路径编码问题 (#18357)
llama-index-readers-papers
[0.3.2]#
- 修复: 使用 defusexml 而不是 xml.etree (#18362)
llama-index-readers-stripe-docs
[0.3.1]#
- 修复: 使用 defusexml 而不是 xml.etree (#18362)
llama-index-readers-uniprot
[0.1.0]#
- 添加 uniprot 阅读器 (#18356)
llama-index-readers-web
[0.3.9]#
- 修复: 使用 defusexml 而不是 xml.etree (#18362)
llama-index-retrievers-galaxia
[0.1.0]#
- 添加 GalaxiaRetriever (#18317)
llama-index-vector-stores-azureaisearch
[0.3.7]#
- chore: 为语义配置添加标题和关键词 (#18354)
llama-index-vector-stores-lancedb
[0.3.2]#
- 修复 LanceDB 中的覆盖与追加逻辑 (#18405)
llama-index-utils-workflow
[0.3.1]#
- 修复自定义 StopEvents 的
draw_all_possible_flows
(#18347)
[2025-04-01]#
llama-index-core
[0.12.28]#
- 添加代码执行代理 + 文档 + 从零开始指南 (#18329)
- 修复
RichPromptTemplate
的模板变量映射,添加文档 (#18309) - 在
AgentWorkflow
/ReActAgent
/FunctionAgent
/CodeActAgent
中支持多模态代理 (#18330) - 修复在新节点类中包含节点元数据进行哈希计算的问题 (#18303)
- 修复从
Context.from_dict
加载时的Context._events_queue
问题 (#18304) - 文档: 添加 Langfuse 检测 (#18321)
llama-index-embeddings-fastembed
[0.3.1]#
- 添加 providers kwarg (#18310)
llama-index-graph-stores-memgraph
[0.3.1]#
- 将 Memgraph 集成更新到最新语法 (#18319)
llama-index-indices-managed-llama-cloud
[0.6.10]#
- 客户端构建中的杂项修复 (#18323)
llama-index-llms-asi
[0.1.0]#
- 添加 asi llm 集成 (#18292)
llama-index-llms-dashscope
[0.3.2]#
- 使用新的工具处理和依赖版本更新 DashScope 集成 (#18311)
llama-index-llms-ipex-llm
[0.3.1]#
- 修复 IpexLLM 构造函数错误 (#18200)
llama-index-llms-litellm
[0.4.1]#
- LiteLLM: 更好地支持工具流,并支持多模态输入 (#18314)
llama-index-readers-obsidian
[0.5.1]#
- 修复: 防止符号链接引起路径遍历 (#18320)
llama-index-readers-papers
[0.3.1]#
- 修复: 使文件名哈希更稳健 (#18318)
llama-index-tools-mcp
[0.1.1]#
- 修复
json_type
是列表(多种可能类型)的情况 (#18306)
llama-index-vector-stores-clickhouse
[0.4.1]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
llama-index-vector-stores-couchbase
[0.3.1]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
llama-index-vector-stores-deeplake
[0.3.3]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
llama-index-vector-stores-jaguar
[0.3.1]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
llama-index-vector-stores-lantern
[0.3.1]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
llama-index-vector-stores-nile
[0.2.2]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
llama-index-vector-stores-milvus
[0.7.2]#
- [错误修复] Milvus 在索引已存在时创建索引 (#18315)
- 为 milvus 向量存储添加更多单元测试 (#18331)
llama-index-vector-stores-oracledb
[0.2.1]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
llama-index-vector-stores-singlestoredb
[0.3.1]#
- 修复: 修补多个 SQL 注入漏洞 (#18316)
[2025-03-28]#
llama-index-core
[0.12.27]#
- 通过延迟导入和加载 nltk 数据优化初始导入 (#18289)
- 在工作流程步骤签名中支持推迟的类型提示 (#18225)
llama-index-llms-litellm
[0.3.1]#
- 特性: 为 LiteLLM 添加工具调用支持 (#18235)
llama-index-llms-openai
[0.3.29]#
- 添加
OpenAIResponses
类以支持 OpenAI 的 responses API (#18300) - 在被覆盖的方法中进行类型安全的结构化预测 (#18290)
llama-index-tools-dappier
[0.1.0]#
- 添加 Dappier 实时搜索和 AI 推荐工具 (#18211)
llama-index-vector-stores-milvus
[0.7.1]#
- Milvus Vector Store: 支持通过 BM25 进行全文搜索 (#18281)
- 修复 Milvus 向量存储以处理文本字段检索
[2025-03-26]#
llama-index-core
[0.12.26]#
- 简化 FunctionAgent/ReActAgent 用于单代理工作流程的使用 (#18227)
- 引入 RichPromptTemplate 用于类 jinja 模板 (#18178)
- 添加结构化 llm 重排序器实现 (#18216)
llama-index-embeddings-azure-openai
[0.3.2]#
- 修复
AzureOpenAIEmbedding
类中api_base
和azure_deployment
互斥的问题 (#18219) - 修复
AzureOpenAIEmbedding
类中的api_base
参数问题 (#18191)
llama-index-finetuning
[0.3.1]#
- 更新 SentenceTransformersFinetuneEngine 以暴露与 transformer 检查点相关的参数 (#18194)
llama-index-llms-dashscope
[0.3.1]#
- 为 dashscope llm 添加
astream_chat
和astream_complete
(#18196)
llama-index-llms-bedrock
[0.3.8]#
- 废弃较旧的 google 和 bedrock 包 (#18210)
- 添加 Bedrock 应用推理配置文件支持 (#18213)
- 修复基础模型 ARN 的提供者解析问题 (#18283)
llama-index-llms-bedrock-converse
[0.4.12]#
- 在 bedrock converse 中不将 None 添加到聊天历史中 (#18206)
- 添加新的亚太 Bedrock llm (#18045)
- 在 converse chat 中处理带有工具的聊天消息为用户消息 (#18187)
llama-index-llms-gemini
[0.4.13]#
- 确保
stream_complete
累积文本并设置 delta (#18246)
llama-index-llms-google-genai
[0.1.6]#
- 废弃较旧的 google 和 bedrock 包 (#18210)
- 修复 google genai 工具描述 (#18242)
- 修复:在 google-genai 中支持 anyof, optional 和 union (#18231)
llama-index-llms-openai
[0.3.27]#
- 添加 o1-pro 支持 (#18207)
- 改进 openai llm 中的默认图像质量 (#18258)
llama-index-llms-text-generation-inference
[0.3.2]#
- 修复 TextGenerationInference 中的
model_name
验证错误,TGI 端点不请求此参数并导致异常 (#18234)
llama-index-llms-vertx
[0.4.4]#
- 废弃较旧的 google 和 bedrock 包 (#18210)
- Vertex LLM 不处理 FunctionCall 工具 (#18201)
llama-index-readers-file
[0.4.7]#
- 功能:通过为 pandas excel reader 添加带有列的头部信息来改进数据检索 (#18233)
llama-index-storage-chat-store-dynomodb
[0.3.1]#
- 功能:为 DynamoDB 聊天存储添加 TTL 支持 (#18084)
llama-index-storage-chat-store-redis
[0.4.1]#
- 修复 Redis 聊天存储中协程从未被等待的 Runtime 警告 (#18274)
llama-index-vector-stores-milvus
[0.6.1]#
- 转义 Milvus 过滤器中的单引号 (#18244)
- 加速 Milvus async_add (#18243)
llama-index-vector-stores-qdrant
[0.6.0]#
- 更新 qdrant 以始终优先使用命名向量 (#18192)
- 提升 qdrant Python 依赖版本 (#18273)
[2025-03-18]#
llama-index-core
[0.12.25]#
- 确保 CHUNKING_REGEX 在分割器中保留原始文本 (#18054)
- 不使用 llama-index-readers-file 包,使用 SimpleDirectoryReader (#18173)
- 改进了 utils.py 和 exec_utils.py 中的注解和错误处理 (#18153)
- 为 SemanticDoubleMergingSplitterNodeParser 添加
build_semantic_nodes_from_nodes
方法 (#18114) - 修复:优化 Context 对象的内存管理 (#18170)
- 修复:允许在 workflow 结束后从 context 流式传输事件 (#18174)
- 功能:为 Context 类添加 clear 方法 (#18136)
llama-index-embeddins-clip
[0.4.0]#
- 解除 ClipEmbedding 依赖限制 (#18165)
llama-index-embeddings-netmind
[0.1.0]#
- 添加 netmind 集成 (#18078)
llama-index-indices-managed-llama-cloud
[0.6.9]#
- 修复 LlamaCloudCompositeRetriever 的 kwargs 问题 (#18141)
llama-index-llms-bedrock-converse
[0.4.10]#
- 错误修复:调用不带参数的工具 (#18143)
- 为 BedrockConverse 的 chat 和 achat 方法添加 token 计数 (#18148)
llama-index-llms-contextual
[0.0.1]#
- 修复 Contextual GLM 问题 (#18145)
llama-index-llms-google-genai
[0.1.4]#
- genai 图像输出 (#18138)
llama-index-llms-langchain
[0.6.1]#
- 在 llama-index-llms-langchain 中将废弃的 predict 替换为 invoke (#18169)
llama-index-llms-netmind
[0.1.0]#
- 添加 netmind 集成 (#18078)
llama-index-llms-novita
[0.1.0]#
- 添加 NovitaAI llm 类 (#18134)
llama-index-postprocessor-aimon-rerank
[0.1.0]#
- AIMon re-ranker 集成到 LlamaIndex 节点后处理器中 (#18087)
llama-index-readers-mongodb
[0.3.1]#
- 功能 (mongo reader):字段提取器 (#18063)
llama-index-tools-vectara-query
[0.3.1]#
- 更新 Vectara Tool 以适应 VectaraIndex 的元数据变更 (#18126)
llama-index-vector-stores-azurecosmosnosql
[1.3.2]#
- 修复:AzureCosmosNoSQL vector_store;根据
ref_doc_id
删除 (#18120)
llama-index-vector-stores-pinecone
[0.4.5]#
- 提升兼容的 pinecone 版本 (#18113)
[2025-03-13]#
llama-index-core
[0.12.24]#
- 修复获取内容节点元数据模板重复的问题 (#18110)
- 移除多模态向量存储/查询引擎中针对多模态 LLM 的断言 (#18112)
- 修复:使 run_step 返回由步骤产生的所有事件 (#18082)
- 修复(多模态节点):打开前检查图像路径是否为文件 (#18043)
llama-index-embeddings-google-genai
[0.1.0]#
- Google genai 嵌入 (#18079)
llama-index-graph-stores-neptune
[0.3.2]#
- 修复 Neptune 的 upsert_triplet 方法中的 TypeError (#18051)
llama-index-indices-managed-vectara
[0.4.2]#
- 更新 Vectara Index 以返回文档级别和页面级别的元数据 (#17976)
llama-index-llms-contextual
[0.1.0]#
- Contextual Generate 模型 (#17913)
llama-index-llms-google-genai
[0.1.3]#
- 使用 GenAI 包用于 Google (#17939)
- 修复 gemini 角色 (#18108)
- 修复空模型元数据引用 (#18109)
- [BUG FIX] Google genai vertexai 错误 (#18070)
llama-index-memory-mem0
[0.3.0]#
- Mem0Memory 集成问题:需要更新以适应 Mem0 API 参数变更 (#18066)
llama-index-postprocessor-contextual-rerank
[0.1.0]#
- Contextual re-ranker (#18075)
llama-index-readers-elasticsearch
[0.3.1]#
- 修复 ElasticsearchReader 的冗余问题 (#18106)
llama-index-readers-google
[0.6.1]#
- 使用 int 类型表示重定向 URI 端口 (#18097)
[2025-03-07]#
llama-index-core
[0.12.23]#
- 添加了
merging_separator
参数,允许在语义分割器中指定块合并分隔符 (#18027) - 添加了在 BaseWorkflowAgent 类中运行单智能体工作流的支持 (#18038)
- 修复了在未指定明确系统消息时创建 ReactAgent 引发的错误 (#18041)
- 为 TokenTextSplitter 添加了一个字段 keep_whitespaces (#17998)
- 在 AgentWorkflow 中不将原始工具输出转换为字符串 (#18006)
llama-index-embeddings-ollama
[0.6.0]#
- 功能:为 OllamaEmbedding 类添加 client_kwargs 参数 (#18012)
llama-index-llms-anthropic
[0.6.10]#
- Anthropic 缓存和思考更新 (#18039)
- 允许缓存工具结果 (#18028)
- 支持缓存 Anthropic 系统提示 (#18008)
- 确保恢复工作流实际有效 (#18023)
- [MarkdownNodeParser] 添加可定制的头部路径分隔符字符 (#17964)
- 功能:当停止事件是自定义时,从 run() 返回事件实例 (#18001)
llama-index-llms-azure-openai
[0.3.2]#
- AzureOpenAI: api_base 和 azure_endpoint 互斥 (#18037)
- 为 AzureOpenAI 添加 base_url (#17996)
llama-index-llms-bedrock-converse
[0.4.8]#
- boto3 模型中消息文本是必需的 (#17989)
llama-index-llms-ollama
[0.5.3]#
- 使 Ollama LLM 中的 request_timeout 可选 (#18007)
llama-index-llms-mistralai
[0.4.0]#
- MistralAI 支持多模态内容块 (#17997)
llama-index-readers-file
[0.4.6]#
- 错误修复:当安装了 PyTorch 时,在 ImageVisionLLMReader 的推理中使用
torch.no grad()
(#17970)
llama-index-storage-chat-store-mongo
[0.1.0]#
- 功能/Mongo 聊天存储 (#17979)
llama-index-core
[0.12.23]#
- 添加了
merging_separator
参数,允许在语义分割器中指定块合并分隔符 (#18027) - 添加了在 BaseWorkflowAgent 类中运行单智能体工作流的支持 (#18038)
- 修复了在未指定明确系统消息时创建 ReactAgent 引发的错误 (#18041)
- 为 TokenTextSplitter 添加了一个字段 keep_whitespaces (#17998)
[2025-02-28]#
llama-index-core
[0.12.22]#
- 修复 agentworkflow 最终响应上的工具调用跟踪问题 (#17968)
llama-index-readers-github
[0.6.0]#
- 确保 Github reader 使用 timeout 和 retries 参数 (#17959)
llama-index-readers-web
[0.3.7]#
- 杂项:更新 FireCrawlWebReader 集成以支持提取 (#17957)
[2025-02-27]#
llama-index-core
[0.12.21]#
- 修复:移除工作流测试中的警告 (#17943)
- 修复:在按步骤运行工作流时考虑步骤工作者 (#17942)
- 功能:在工作流类中自动检测自定义开始和停止事件 (#17865)
- 功能/移除 retriever 工具模板覆盖 (#17909)
- 仅在实际检测到 'Answer:' 时才修改 delta (#17901)
- 修复 CitationQueryEngine 的 response_synthesizer 初始化函数问题 (#17897)
- 修复 ChatSummaryMemoryBuffer._summarize_oldest_chat_history 问题 (#17845)
- 修复:使 base64 检测全面更健壮 (#17930)
- 修复:当步骤执行异步工作时,按步骤执行会中断 (#17914)
- 更安全的工作流取消 + 修复恢复的上下文错误 (#17938)
llama-index-cli
[0.4.1]#
- 修复:在执行 shell 命令前转义用户输入 (#17953)
- llamaindex-cli 正确处理 glob 模式 (#17904)
llama-index-embeddings-gaudi
[0.2.1]#
- 修复:移除 cache_dir Pydantic 字段验证 (#17947)
llama-index-indices-managed-vectara
[0.4.1]#
- 支持自定义 vectara_base_url (#17934)
llama-index-llms-anthropic
[0.6.7]#
- 修复:调用 Anthropic Messages API 时 tools 参数不能为 Null (#17928)
llama-index-llms-bedrock
[0.3.4]#
- 功能 (bedrock):添加 Claude 3.7 Sonnet 模型支持 (#17950)
llama-index-llms-bedrock-converse
[0.4.7]#
- 功能 (bedrock converse):添加 Meta Llama 3.3 70B instruct 模型支持 (#17915)
llama-index-llms-gemini
[0.4.11]#
- 功能:将 Gemini 的最大允许模型温度更改为 2.0 (#17886)
llama-index-llms-ibm
[0.3.3]#
- 更新 WatsonxLLM.metadata 属性,避免当 model_limits 字段不存在时发生验证错误 (#17839)
llama-index-llms-openai
[0.3.24]#
- 添加 gpt-4.5-preview (#17954)
- 修复:类似 openai 的 agent 通过 vLLM 进行流式传输 (#17927)
- 修复空的助手消息情况下 "Invalid value for 'content': expected a string, got null." openai 错误 (#17921)
llama-index-multi-modal-llms-azure-openai
[0.4.0]#
- 重构为在正常 AzureOpenAI llm (也支持使用内容块的图像) 之上的轻量级包装器,以防止代码重复 (#17951)
llama-index-multi-modal-llms-huggingface
[0.4.2]#
- 支持 LlamaMultiModal 类仅文本提示 (#17855)
llama-index-multi-modal-llms-openai
[0.5.0]#
- 重构为在正常 OpenAI llm (也支持使用内容块的图像) 之上的轻量级包装器,以防止代码重复 (#17951)
llama-index-postprocessor-ibm
[0.1.0]#
- 功能:添加 ibm-watsonx-ai re-rank 集成 (#17900)
llama-index-readers-web
[0.3.6]#
- 修复:在 KnowledgeBaseWebReader 中遵循 max_depth (#17949)
llama-index-retrievers-tldw
[0.0.1]#
- tl;dw AI 对 Retrievers 的集成 (#17872)
llama-index-tools-valyu
[0.1.0]#
- 功能:添加 Valyu 集成 (#17892)
llama-index-vector-stores-azureaisearch
[0.3.6]#
- azureaisearch: 在创建索引时将 default mySemanticConfig 作为名称添加 (#17908)
llama-index-vector-stores-databricks
[0.4.0]#
- 构建:为 llama-index-vector-stores-databricks 支持 python3=3.9,<4.0 (#17937)
llama-index-vector-stores-duckdb
[0.3.1]#
- 修复:在 DuckDB 向量存储的 SQL 查询中转义参数 (#17952)
llama-index-vector-stores-elasticsearch
[0.4.2]#
- 修复:修复 adelete 方法并在 elasticsearch 向量存储中添加 delete_nodes 方法 (#17890)
[2025-02-25]#
llama-index-core
[0.12.20]#
- 功能:为检索到的图像节点附加更多元数据 (#17868)
- 修复:当 LLM 响应不包含聊天消息时 FunctionAgent 和 ReActAgent 会报错 (#17884)
- 修复:将嵌入函数转换为异步 (#17888)
llama-index-networks
[0.6.0]#
- 修复:提升 python-jose 版本 (#17866)
llama-index-vector-stores-redis
[0.5.0]#
- 修复:更新以适应 redisvl 0.4.0 (#17902)
llama-index-llms-anthropic
[0.6.6]#
- 修复:添加对 Claude 3.7 系列模型的支持 (#17905)
llama-index-readers-microsoft-outlook-emails
[0.1.1]#
- 修复:microsoft_outlook_emails 集成的导入路径不正确 (#17867)
llama-index-llms-vertex
[0.4.3]#
- 修复:带有工具调用的聊天消息错误地映射到 Vertex 消息 (#17893)
llama-index-llms-bedrock-converse
[0.4.6]#
- 功能:添加 Claude 3.7 Sonnet 模型支持 (#17911)
[2025-02-17]#
llama-index-core
[0.12.19]#
- 添加了同步/异步 Function 工具回调 (#16637)
- 调整了用于模板变量的正则表达式
llama-index-experimental
[0.5.4]#
- 修复了实验性 JSONalyzeQueryEngine 的导入错误 (#15642)
llama-index-graph-stores-memgraph
[0.3.0]#
- 修复 memgraph 的版本问题 (#17842)
llama-index-indices-managed-llama-cloud
[0.6.7]#
- 图像元数据测试 + 同步实现 (#17844)
llama-index-postprocessor-nvidia-rerank
[0.4.2]#
- NVIDIARerank 添加 http_client 参数以传递自定义客户端 (#17832)
llama-index-llms-mistralai
[0.3.3]#
- Mistral saba 支持 (#17847)
[2025-02-16]#
llama-index-core
[0.12.18]#
- 改进 prompt helper 多模态支持 (#17831)
- 保留来自
@dispatcher.span
的返回类型 (#17817) - 抑制 nltk downloader (#17816)
- 在
astream_chat()
中保留对 asyncio 任务的引用 (#17812)
llama-index-indices-managed-llama-cloud
[0.6.6]#
- 当从 llamacloud retriever 返回图像节点时包含文件和页面元数据 (#17823)
- 改进 llamacloud 索引的错误日志 (#17827)
llama-index-indices-managed-vertexai
[0.2.1]#
- 添加 textnode 元数据 (#17814)
llama-index-llms-anthropic
[0.6.5]#
- 功能:✨ 添加支持 anthropic claude-3-5-haiku-latest 模型名称 (#17818)
llama-index-llms-openai
[0.3.20]#
- 较旧 o1 模型的 openai 开发者消息修复 (#17833)
llama-index-readers-microsoft-outlook-emails
[0.1.0]#
- 功能:添加 Microsoft Outlook 电子邮件读取器集成 (#17829)
llama-index-tools-mcp
[0.1.0]#
- 功能:添加 mcp 工具规范 (#17795)
llama-index-tools-playwright
[0.1.1]#
- 修复:将 Playwright 浏览器工具从同步更改为异步 (#17808)
llama-index-vector-stores-azureaisearch
[0.3.5]#
- 扩展 AzureAISearchVectorStore 过滤选项 (#17811)
- azureaisearch: 对于混合搜索,优先使用 hybrid_top_k 而不是 similarity_top_k (#17612)
- azureaisearch: 将语义配置名称的默认值设置为 None (#17807)
llama-index-vector-stores-mariadb
[0.3.1]#
- MariaDB 向量存储集成:添加调优参数和实用函数 (#17791)
[2025-02-11]#
llama-index-core
[0.12.17]#
- 添加了对聊天消息中 AudioBlocks 的支持(目前仅限 OpenAI)(#17780)
- 修复:SimpleDirectoryReader 元数据处理时区不一致 (#17724)
llama-index-agent-openai
[0.4.4]#
- 在 openai assistant agent 中添加了额外参数 (#17729)
- 避免
aput_messages
中的异步竞态条件 (#17754)
llama-index-embeddings-siliconflow
[0.2.1]#
- 为 siliconflow llm 和 embeddings 添加重试逻辑 (#17771)
llama-index-graph-rag-cognee
[0.1.3]#
- Cognee 集成版本更新 (#17769)
llama-index-graph-stores-neptune
[0.3.1]#
- 修复:更新 neptune 集成中的 upsert_triplet 方法 (#17727)
llama-index-llms-gemini
[0.4.9]#
- 修复 gemini 工具选择 (#17747)
- 修复 gemini 多轮工具调用问题 (#17764)
- 杂项:为最新 gemini 结构化生成添加测试 (#17762)
llama-index-llms-ibm
[0.3.2]#
- 修复:更新
WatsonxLLM.stream_chat()
以适应即将发布的ibm-watsonx-ai 1.2.7
并避免错误 (#17772)
llama-index-llms-langchain
[0.6.0]#
- 更新 llama-index-llms-langchain 以使用最新的 langchain API - 移除废弃警告 (#17770)
llama-index-llms-ollama
[0.5.2]#
- Ollama 原生多模态支持 ImageBlocks (#17759)
llama-index-llms-openai
[0.3.19]#
- 为 openai 添加音频支持 (#17780)
llama-index-llms-openvino-genai
[0.1.0]#
- 添加 llama-index-llms-openvino-genai 包 (#17714)
llama-index-llms-siliconflow
[0.2.1]#
- 为 siliconflow llm 和 embeddings 添加重试逻辑 (#17771)
llama-index-readers-whisper
[0.1.0]#
- 添加 OpenAI Whisper 读取器 (#17778)
llama-index-retrievers-bm25
[0.5.2]#
- BM25Retriever: UnicodeError 处理和编码灵活性改进 (#17643)
llama-index-retrievers-kendra
[0.1.0]#
- 添加 kendra retriever (#17760)
llama-index-tools-jira
[0.1.0]#
- Jira 工具集成 (#17763)
llama-index-tools-playwright
[0.1.0]#
- 功能:Playwright 浏览器工具 (#17706)
llama-index-vector-stores-elasticsearch
[0.4.1]#
- 遗漏了删除查询的关键词后缀 (#17750)
[2025-01-05]#
llama-index-core
[0.12.16]#
- 在执行 ReAct 时,对某些模型发出的开头空白符更宽松 (#17701)
- 修复
user_msg
与chat_history
AgentWorkflow 输入问题 (#17690)
llama-index-embeddings-oci-data-science
[0.1.0]#
- 添加 OCI Data Science 模型部署嵌入集成 (#17243)
llama-index-embeddings-vllm
[0.1.0]#
- 添加 vLLM 离线推理对嵌入的支持 (#17675)
llama-index-embeddings-voyageai
[0.3.5]#
- 小型异步 voyageai 修复 (#17698)
llama-index-llms-gemini
[0.4.7]#
- gemini 2.0 支持 (#17720)
- 功能:支持 gemini (google-generativeai) 的基本函数调用 (#17696)
llama-index-llms-oci-data-science
[0.1.0]#
- 添加 OCI Data Science 模型部署 LLM 集成 (#17241)
llama-index-llms-oci-genai
[0.3.1]#
- 传递 auth_file_location 的选项,以便覆盖默认配置文件位置,即 ~/.oci/config (#17695)
llama-index-llms-ollama
[0.5.1]#
- 修复:在流式传输时避免遗漏工具调用
llama-index-llms-openai
[0.3.17]#
- 修复:O1 中的 max_tokens (#17703)
- o3 mini 支持 (#17689)
- 修复 max_tokens,为 openai 推理模型添加 reasoning_effort (#17694)
llama-index-readers-obsidian
[0.5.0]#
- 改进的 Obsidian 读取器 (#17699)
llama-index-tools-scrapegraph
[0.1.1]#
- 功能:添加新的 scrapegraph 端点 (#17709)
[2025-01-31]#
llama-index-core
[0.12.15]#
- 为 FunctionCallingLLM.predict_and_call 添加 error_on_tool_error 参数 (#17663)
- 从 pydantic 字段获取工具描述 (#17679)
- 修复:使 ctx._events_buffer 可 JSON 序列化 (#17676)
- 功能:允许排除空文件 simple directory reader (#17656)
- 改进 markdown llm 输出解析 (#17577)
- 默认计划优化提示中的小型拼写错误修复 (#17644)
llama-index-agent-openai
[0.4.3]#
- 修复并行工具调用时重复的来源问题 (#17645)
llama-index-embeddings-text-embeddings-inference
[0.3.2]#
- 为 TextEmbeddingsInference 添加 endpoint 参数 (#17598)
llama-index-llms-bedrock-converse
[0.4.5]#
- 修复 bedrock 函数调用 (#17658)
llama-index-llms-cortex
[0.1.0]#
- 添加 Snowflake Cortex 集成 (#17585)
llama-index-llms-fireworks
[0.3.2]#
- Deepseek-r1 现在受 fireworks 支持 (#17657)
- Deepseek-v3 现在受 fireworks 支持 (#17518)
llama-index-llms-gemini
[0.4.5]#
- 将聊天装饰器添加到异步调用中 (#17678)
llama-index-llms-llama-cpp
[0.4.0]#
- 更新 llama-cpp 集成 + 文档 (#17647)
llama-index-vector-stores-azureaisearch
[0.3.3]#
- 功能/修复由于硬编码参数导致的 Azure AI Search 混合语义搜索不可用问题 (#17683)
llama-index-vector-stores-pinecone
[0.4.4]#
get_nodes()
现在接受 include_values 参数以返回嵌入 (#17635)
[2025-01-25]#
llama-index-core
[0.12.14]#
- 修复非 OpenAI LLM 的 agentworkflow 交接问题 (#17631)
- 对多智能体工作流演示 notebook 的小型修复 (#17628)
llama-index-embeddings-bedrock
[0.5.0]#
- 实现异步 bedrock 嵌入 (#17610)
llama-index-llms-bedrock-converse
[0.4.4]#
- 修复 bedrock converse 中的提示堆叠问题 (#17613)
llama-index-llms-deepseek
[0.1.0]#
- DeepSeek 官方 API LLM (#17625)
llama-index-readers-google
[0.6.0]#
- GoogleDriveReader 支持文件扩展名 (#17620)
[2025-01-23]#
llama-index-core
[0.12.13]#
- 修复 header_path 错误,涉及 MarkdownNodeParser 中的 markdown 级别与栈深度 (#17602)
- 高级 text-to-sql 示例行,为 few-shot 提示添加行检索 (#17479)
- 使 React observation 的消息角色可配置 (#17521)
- 修复 AgentWorkflow 中重建工具的问题 (#17596)
- 在聊天模板中支持内容块 (#17603)
- 通过新的
DocumentContextExtractor
添加上下文检索支持 (#17367)
llama-index-graph-stores-memgraph
[0.2.1]#
- Memgraph 集成的向量索引支持 (#17570)
llama-index-graph-stores-neo4j
[0.4.6]#
- 改进 neo4j 对象的连接并添加了一些测试 (#17562)
llama-index-indices-managed-llama-cloud
[0.6.4]#
- 为复合检索添加框架集成 (#17536)
llama-index-llms-langchain
[0.5.1]#
- 流式传输时获取有效字符串 (#17566)
llama-index-llms-mistralai
[0.3.2]#
- 更新 mistral 中的函数调用模型 (#17604)
llama-index-llms-openai
[0.3.14]#
- 修复工具调用中 openai.BadRequestError: Invalid value for 'content': expected a string, got null 错误 (#17556)
llama-index-readers-file
[0.4.3]#
- 重构 markdown_to_tups 方法以更好地处理多级头部 (#17508)
llama-index-readers-web
[0.3.5]#
- 功能:Agentql Web 加载器 (#17575)
llama-index-tools-linkup-research
[0.3.0]#
- 添加 linkup 工具 (#17541)
llama-index-tools-notion
[0.3.1]#
- 修复:更正 NotionPageReader 中 "load_data" 的输入参数 (#17529)
llama-index-vector-stores-pinecone
[0.4.3]#
- 构建:🆙 将 pinecone-client 替换为 pinecone 包 (#17587)
llama-index-vector-stores-postgres
[0.4.2]#
- 添加对 halfvec 向量类型的支持 (#17534)
[2025-01-20]#
llama-index-core
[0.12.12]#
- 功能:添加 AgentWorkflow 系统以支持单智能体和多智能体工作流 (#17237)
- 修复 ImageNode 中的图像路径验证问题 (#17558)
llama-index-indices-managed-vectara
[0.4.0]#
- (破坏性变更) API 迁移 (#17545)
llama-index-llms-anthropic
[0.6.4]#
- 功能:支持 Anthropic 直接处理 PDF (#17506)
llama-index-llms-fireworks
[0.3.1]#
- Deepseek-v3 现在受 fireworks 支持 (#17518)
llama-index-llms-stepfun
[1.0.0]#
- 功能:添加 stepfun 集成 (#17514)
llama-index-multi-modal-llms-gemini
[0.5.0]#
- 重构:使 GeminiMultiModal 成为 Gemini 的轻量级包装器 (#17501)
llama-index-postprocessor-longllmlingua
[0.4.0]#
- 添加 longllmlingua2 集成 (#17531)
llama-index-readers-web
[0.3.4]#
- 功能:Hyperbrowser Web 读取器 (#17489)
[2025-01-15]#
llama-index-core
[0.12.11]#
- 修复:MediaResource 验证器中的 bug (#17509)
- 在 MarkdownElementNodeParser 的 md 到 df 转换中处理 pandas 错误 (#17511)
- 错误修复:重复的引用节点 (#17440)
- 通过更新 MarkdownReader 中的 markdown 格式修复了问题 #17397 (#17429)
- 功能:通过 additional_kwargs 支持向 ChatMessage 添加图像 (#17477)
- 功能:异步语义分割节点解析器 (#17449)
- schema llm 提取器中更多异常处理 (#17432)
llama-index-agent-openai
[0.4.2]#
- OpenAIAgentWorker 的异步内存管理 (#17375)
llama-index-embeddings-huggingface
[0.5.0]#
- Hugging Face 多模态嵌入支持 (#17463)
llama-index-embeddings-gemini
[0.3.1]#
- 为 gemini 添加请求选项 (#17452)
llama-index-embeddings-opea
[0.1.0]#
- 在 Llama-Index 中添加对 OPEA LLM 的支持 (#16666)
llama-index-embeddings-upstage
[0.4.1]#
- 错误修复:修复 upstage 嵌入可用模型映射 (#17460)
llama-index-graph-stores-neo4j
[0.4.5]#
- 修复 neo4j schema 错误 (#17448)
llama-index-llms-gemini
[0.4.3]#
- 为 gemini 添加请求选项 (#17452)
llama-index-llms-opea
[0.1.0]#
- 在 Llama-Index 中添加对 OPEA LLM 的支持 (#16666)
llama-index-llms-openai
[0.3.13]#
- 调整 openai 模型温度以接受 0 到 2 之间的值 (#17453)
llama-index-multi-modal-llms-bedrock
[0.1.0]#
- 添加多模态 Bedrock 集成 (#17451)
llama-index-postprocessor-bedrock-rerank
[0.3.1]#
- 如果输入节点数量较少,则更改
top_n
(#17374)
llama-index-readers-slack
[0.3.1]#
- 添加了仅允许公共 Slack 频道的功能 (#17399)
llama-index-storage-chat-store-tablestore
[0.1.0]#
- Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-storage-docstore-tablestore
[0.1.0]#
- Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-storage-index-store-tablestore
[0.1.0]#
- Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-storage-kvstore-tablestore
[0.1.0]#
- Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)
llama-index-vector-stores-mariadb
[0.3.0]#
- MariaDB 向量存储集成中支持 MariaDB 11.7 (#17497)
llama-index-vector-stores-neptune
[0.3.1]#
- 添加测试,修复缺失方法 (#17485)
llama-index-vector-stores-qdrant
[0.4.3]#
- 为 Qdrant Vector store 添加新的操作符 (#17490)
[2024-12-31]#
llama-index-core
[0.12.10]#
- 移除 schema llm 提取器中的断言 (#17425)
- 功能:支持 typing.Annotated 以在 FunctionTools 中添加参数描述 (#17411)
- 猜测 ImageNode 的 image_mimetype (#17422)
llama-index-embeddings-nvidia
[0.3.1]#
- NVIDIA 支持 v2 嵌入和重排 NIM (#17410)
llama-index-embeddings-openvino
[0.5.1]#
- 更新 OpenVINO 包的依赖项 (#17419)
llama-index-multi-modal-llms-openai
[0.4.2]#
- 为多模态 llms 添加对 gpt-4o-2024-08-06 的支持 (#17405)
llama-index-packs-raptor
[0.3.1]#
- 修复 llama_index.packs.raptor 树遍历检索问题 (#17406)
llama-index-postprocessor-openvino-rerank
[0.4.1]#
- 更新 OpenVINO 包的依赖项 (#17419)
llama-index-readers-file
[0.4.2]#
- 从 SimpleDirectoryReader 的默认加载器中移除 MarkdownReader (#17412)
llama-index-core
[0.12.9]#
- 清理 schema 提取器中的类型提示 (#17394)
- 修复处理格式错误的 LLM 响应时 LLM Reranking 中的 IndexError (#17353)
llama-index-llms-bedrock-converse
[0.4.3]#
- 修复 Bedrock Converse 工具使用中的回归问题 (#17364)
llama-index-llms-sagemaker-endpoint
[0.3.1]#
- 在 SageMakerLLM 中将
aws_region_name
传递给get_aws_service_client()
(#12000)
llama-index-postprocessor-voyageai-rerank
[0.3.2]#
- VoyageAIRerank 构造函数截断修复 (#17343)
llama-index-readers-gitlab
[0.3.1]#
- 修复:正确添加 Gitlab Repo 的 blob 文档 (#17392)
llama-index-readers-rss
[0.3.2]#
- 修复 rss 中的小问题 (#17351)
llama-index-readers-web
[0.3.3]#
- 修复:防止
get_article_urls
中的无限递归 (#17360)
llama-index-vector-stores-azureaisearch
[0.3.2]#
- azureaisearch: 为异步查询添加语义搜索模式支持 (#17335)
llama-index-vector-stores-azurecosmosnosql
[1.3.1]#
- 修复 storeindex cosmosnosql 查询问题 - (BadRequest) (#17385)
llama-index-vector-stores-milvus
[0.5.0]#
- 功能:Milvus 异步 (#17378)
llama-index-vector-stores-opensearch
[0.5.2]#
- 修复属性名称中的拼写错误 (#17365)
- 异步 aoss 向量存储初始化时的错误修复 (#17340)
llama-index-vector-stores-tablestore
[0.2.2]#
- TablestoreVectorStore: 支持混合查询,修改一些文档 (#17366)
- TablestoreVectorStore 在写入存储时检查嵌入的维度 (#17321)
llama-index-vector-stores-qdrant
[0.4.2]#
- 当
query_str
为 None 时,qdrant 过滤器修复 (#17377)
llama-index-vector-stores-weaviate
[1.3.1]#
- 为 weaviate 实现
client_kwargs["custom_batch"]
(#17347)
[2024-12-20]#
llama-index-core
[0.12.8]#
- 修复文档序列化中排除文本的问题 (#17341)
- 修复 awrite_response_to_history 中缺失 aput 的问题 (#17338)
llama-index-graph-rag-cognee
[0.1.0]#
- Cognee 集成 (#17314)
llama-index-llms-openai
[0.3.12]#
- 调整 o1 函数调用要求 (#17328)
[2024-12-18]#
llama-index-core
[0.12.7]#
- 修复:为 langchain 回调处理程序添加超时 (#17296)
- 修复:使 Document 序列化事件更具向后兼容性 (#17312)
llama-index-embeddings-voyageai
[0.3.4]#
- 暴露 VoyageAI 嵌入模型的额外关键词参数 (#17315)
llama-index-llms-keywordsai
[0.1.0]#
- 添加了 KeywordsAI LLM (#16860)
llama-index-llms-oci-genai
[0.4.0]#
- 添加 OCI Generative AI 工具调用支持 (#16888)
llama-index-llms-openai
[0.3.11]#
- 支持新的 o1 模型 (#17307)
llama-index-postprocessor-voyageai-rerank
[0.3.1]#
- VoyageAI Reranker 可选 API Key (#17310)
llama-index-vector-stores-azureaisearch
[0.3.1]#
- 改进异步搜索客户端处理 (#17319)
llama-index-vector-stores-azurecosmosmongo
[0.4.0]#
- CosmosDB 插入时间戳错误修复 (#17290)
llama-index-vector-stores-azurecosmosnosql
[1.3.0]#
- CosmosDB 插入时间戳错误修复 (#17290)
[2024-12-17]#
llama-index-core
[0.12.6]#
- [错误修复] 确保 StopEvent 在 Workflow 运行后从 Context._in_progress["_done"] 中清除 (#17300)
- 修复:为 langchain 回调处理程序添加超时 (#17296)
- 调整 react 提示中的 User 与 tool (#17273)
- 重构:重构 Document 以实现原生多模态 (#17204)
- 修复:使 ImageDocument 继承自 Document,向后兼容 (#17259)
- 修复:接受 ImageBlock 中已 base64 编码的数据 (#17244)
- 修复(指标):修复了 NDCG 计算并更新了之前的测试 (#17236)
- 修复:移除 llama-index-core 中对 llama-index-legacy 的依赖 (#17231)
- 优化了函数工具的默认文档生成 (#17208)
llama-index-embeddings-voyageai
[0.3.3]#
- 添加对 voyageai >=0.3.0 的支持 (#17120)
- 引入 VoyageAI 的新多模态嵌入模型 (#17261)
- VoyageAI 多模态嵌入,修正 (#17284)
llama-index-experimental
[0.5.2]#
- 修复了实验性 JSONalyzeQueryEngine 的导入错误 (#17228)
llama-index-grapg-stores-neo4j
[0.4.4]#
- 添加 cypher 校正器并允许图 schema 过滤 (#17223)
- 为 neo4j 图添加超时配置 (#17267)
- 为 neo4j 增强 schema 添加文本和嵌入类型 (#17289)
llama-index-llms-anthropic
[0.6.3]#
- 为 anthropic 添加内容块 (#17274)
- 不向 anthropic 发送空内容 (#17278)
- 为 v0.41.0 版本更新 anthropic 类型导入 (#17299)
- 修复 Anthropic 分词器协议 (Devin 修复) (#17201)
llama-index-llms-bedrock
[0.3.3]#
- 添加 Amazon bedrock 护栏 (#17281)
llama-index-llms-bedrock-converse
[0.4.2]#
- 添加 Amazon bedrock 护栏 (#17281)
llama-index-llms-gemini
[0.4.1]#
- Gemini 2.0 支持 (#17249)
llama-index-llms-mistralai
[0.3.1]#
- 为 mistral 聊天消息添加工具调用 id/name (#17280)
llama-index-llms-nvidia
[0.3.1]#
- 添加 llama 3.3-70b 作为具有函数调用能力的模型 (#17253)
llama-index-llms-openai
[0.3.10]#
- 修复工具调用的 openai 消息字典 (#17254)
llama-index-llms-text-generation-inference
[0.3.1]#
- 修复:TGI 上下文窗口 (#17252)
llama-index-multi-modal-llms-anthropic
[0.3.1]#
- 处理 anthropic 多模态 llms 中更多的响应类型 (#17302)
llama-index-readers-confluence
[0.3.1]#
- 支持 Confluence cookie (#17276)
llama-index-vector-stores-milvus
[0.4.0]#
- 从 "vector_store_kwargs" 中解析 "milvus_search_config" (#17221)
- 重构和优化 milvus 代码 (#17229)
llama-index-vector-stores-pinecone
[0.4.2]#
- 处理检索到的空 Pinecone 索引值 (#17242)
llama-index-vector-stores-qdrant
[0.4.1]#
- 功能:为 MetadataFilter 和 QdrantVectorStore 添加 NOT 过滤条件 (#17270)
llama-index-vector-stores-weaviate
[1.3.0]#
- 为 weaviate 向量存储集成添加异步支持 (#17220)
[2024-12-09]#
llama-index-core
[0.12.5]#
- 优化了函数工具的默认描述生成 (#17208)
llama-index-multi-modal-llms-azure-openai
[0.3.2]#
- 修复:放宽对 openai llm 依赖项的限制 (#17210)
llama-index-postprocessor-pinecone-native-rerank
[0.1.0]#
- 功能:集成 Pinecone 托管的 rerankers (#17192)
llama-index-tools-scrapegraph
[0.1.0]#
- 添加 Scrapegraph 工具集成 (#17238)
llama-index-vector-stores-postgres
[0.3.3]#
- 更新 pgvector 依赖项至 0.3.6 版本 (#17195)
[2024-12-08]#
llama-index-core
[0.12.4]#
- 修复同步和异步结构化流式传输问题 (#17194)
- 解除 pydantic 限制,允许 2.8 或更高版本 (#17193)
- 更新核心结构化预测流式传输,添加 ollama 结构化预测 (#17188)
- 提升 llama-index-core 中的 tenacity 依赖项版本 (#17178)
llama-index-indices-managed-vectara
[0.3.1]#
- 为 Vectara
as_query_engine
添加 Verbose 参数 (#17176)
llama-index-llms-ollama
[0.5.0]#
- 更新核心结构化预测流式传输,添加 ollama 结构化预测 (#17188)
llama-index-llms-perplexity
[0.3.2]#
- 修复 perplexity 的消息格式问题 (#17182)
llama-index-readers-web
[0.3.1]#
- 在 WholeSiteReader 中添加使用 URI 作为文档 ID 的可能性 (#17187)
llama-index-vector-stores-chroma
[0.4.1]#
- 错误修复:使 llama-index-vectorstore-chromadb 与 chromadb v0.5.17 一起工作 (#17184)
[2024-12-06]#
llama-index-core
[0.12.3]#
- 使用单元测试覆盖 SimpleDirectoryReader (#17156)
- 文档:重写不使用多模态 LLM 的 openai 图像推理示例 (#17148)
- 修复(指标):修复了 NDCG 计算并添加了全面的测试用例 (#17126)
- 功能:改进 ImageBlock (#17111)
- 移除 ChatMemoryBuffer 中遗忘的 print (#17114)
- [修复] 将 JSONalyzeQueryEngine 移至实验性 (#17110)
llama-index-embeddings-clip
[0.3.1]#
- 解除 clip 模型使用限制 (#17162)
llama-index-embeddings-openai
[0.3.1]#
- 修复/openai-embedding-retry (#17072)
llama-index-embeddings-text-embeddings-inference
[0.3.1]#
- TEI 中正确的 auth token (#17158)
llama-index-indices-managed-llama-cloud
[0.6.3]#
- 杂项:修复 LlamaCloudRetriever 中的 httpx_client 拼写错误 (#17101)
- 修复:LlamaCloudRetriever 中 project id 变量错误 (#17086)
llama-index-llms-bedrock-converse
[0.4.1]#
- 将 AWS Nova 模型添加到 Bedrock Converse (#17139)
llama-index-llms-ollama
[0.4.2]#
- Ollama LLM: 为
_get_response_token_counts
添加 TypeError 异常 (#17150)
llama-index-llms-sambanovasystems
[0.4.3]#
- openai 识别在 url 中的变化 (#17161)
llama-index-memory-mem0
[0.2.1]#
- 修复 mem0 版本检查 (#17159)
llama-index-multi-modal-llms-openai
[0.4.0]#
- 修复:使 OpenAIMultiModal 与新的 ChatMessage 一起工作 (#17138)
llama-index-postprocessor-bedrock-rerank
[0.3.0]#
- 添加 AWS Bedrock Re-ranker (#17134)
llama-index-readers-file
[0.4.1]#
- 更新 unstructured reader 的文档 ID (#17160)
llama-index-retrievers-duckdb-retriever
[0.4.0]#
- 修复:在 DuckDBRetriever 中使用预处理语句 (#17092)
llama-index-vector-stores-postgres
[0.3.2]#
- 无论 schema 状态如何,都为 pgvector 创建表 (#17100)
llama-index-vector-stores-weaviate
[1.2.4]#
- 使 weaviate 中的 alpha 不为 None (#17163)
- 使 Weaviate Vector Store 集成处理复杂属性 (#17129)
- 为 Weaviate Vector Store 集成添加对
IS_EMPTY
元数据过滤器的支持 (#17128) - 使 Weaviate Vector Store 集成支持嵌套元数据过滤 (#17107)
[2024-11-26]#
llama-index-core
[0.12.2]#
- 改进工作流的堆栈跟踪日志记录 (#17040)
- 工作流检查点的初始版本 (#17006)
- 修复基础组件测试 (#17062)
- 将代码分割器测试标记为可选 (#17060)
- 更新贡献指南和开发依赖项 (#17051)
- 修复 WorkflowDone 异常的处理 (#17047)
llama-index-embeddings-vertex
[0.3.1]#
- 从 vertex 依赖项中移除 pyarrow (#16997)
llama-index-llms-ibm
[0.3.1]#
- IBM watsonx.ai acomplete 和 achat 集成 (#17034)
llama-index-llms-openai
[0.3.2]#
- 修复某些场景下 openai 的 tool_choice 问题 (#17058)
llama-index-llms-perplexity
[0.3.1]#
- 修复:更新 perplexity 模型,添加单元测试和小型修复 (#17045)
llama-index-llms-vertex
[0.4.1]#
- 从 vertex 依赖项中移除 pyarrow (#16997)
llama-index-multi-modal-llms-huggingface
[0.2.1]#
- 添加 stream_chat 并有条件地将 AutoModelClass 设置为 MllamaForConditionalGeneration (#17031)
llama-index-readers-box
[0.3.1]#
- 修复 box api - mypy 损坏问题 (#17061)
llama-index-vector-stores-deeplake
[0.3.2]#
- deeplake v3 向后兼容性 (#17057)
llama-index-vector-stores-mongodb
[0.6.0]#
- MongoDB Atlas: 添加搜索索引命令和元数据过滤器的测试/示例 (#15265)
llama-index-vector-stores-postgres
[0.3.1]#
- 在 pgvector 表创建期间,先检查 schema 是否存在再进行其余初始化 (#17063)
[2024-11-20]#
llama-index-core
[0.12.1]#
- 暂时将 pydantic 锁定至
<2.10
版本 - 功能 [react-multimodal]: 在 MultimodalReActAgentWorker 中添加 Gemini 图像支持 (#16992)
llama-index-indices-managed-llama-cloud
[0.6.2]#
- llama-cloud-index 中的 api_key 拼写错误 (#17001)
llama-index-llms-openai
[0.3.1]#
- 添加对最新 gpt-4o 模型的支持 (#17015)
llama-index-llms-zhipuai
[0.2.1]#
- zhipuai api 添加 stop 参数 (#16996)
llama-index-multi-modal-llms-mistralai
[0.3.1]#
- 添加对 Mistral 最新模型的支持 (#16991)
llama-index-multi-modal-llms-replicate
[0.3.1]#
- 修复:更正 replicate multi modal 包中的拼写错误 (#16998)
llama-index-vector-stores-pinecone
[0.4.1]#
- 为 pinecone 添加 get_nodes 方法 (#17007)
[2024-11-17]#
注意: 更新到 v0.12.0 将需要升级所有其他 llama-index-*
包!所有包都已升级版本。以下仅列出主要变更。
llama-index-core
[0.12.0]#
- 放弃 Python 3.8 支持,解除 numpy 限制 (#16973)
- Kg/动态 PG 三元组检索限制 (#16928)
llama-index-indices-managed-llama-cloud
[0.6.1]#
- 为 LlamaCloudIndex 添加 ID 支持并更新 from_documents 逻辑,现代化 API (#16927)
- 允许上传文件时跳过等待摄取 (#16934)
- 添加对文件端点的支持 (#16933)
llama-index-indices-managed-vectara
[0.3.0]#
- 添加自定义提示参数 (#16976)
llama-index-llms-bedrock
[0.3.0]#
- messages/completion 到 prompt 的小型修复 (#15729)
llama-index-llms-bedrock-converse
[0.4.0]#
- 修复 bedrock converse 的异步流式传输问题 (#16942)
llama-index-multi-modal-llms-nvidia
[0.2.0]#
- 添加 VLM 支持 (#16751)
llama-index-readers-confluence
[0.3.0]#
- 允许将参数传递给 Confluence 客户端 (#16961)
llama-index-readers-github
[0.5.0]#
- 为 GithubRepositoryReader 添加基础 URL 提取方法 (#16926)
llama-index-vector-stores-weaviate
[1.2.0]#
- 允许传入 Weaviate vector store kwargs (#16954)
[2024-11-11]#
llama-index-core
[0.11.23]#
- 修复流式传输和发生异常时的工作流超时问题 (#16852)
- core.multi_modal_llms.generic_utils 的新函数 (#16896)
- 添加了 core.multimodal 的 docstrings 和单元测试 (#16872)
- 实际将摄取管道的 num_workers 设置为 num_cpus (#16803)
llama-index-embeddings-nvidia
[0.2.5]#
- 跳过 nvdev 嵌入模型的模型验证 (#16883)
llama-index-embeddings-modelscope
[0.3.0]#
- 添加 ModelScope 嵌入支持 (#16873)
llama-index-graph-stores-kuzu
[0.4.0]#
- 破坏性变更:更新关系表标签命名法,现有图需要重新创建 (#16886)
llama-index-llms-anthropic
[0.4.0]#
- 使用新的 anthropic token 计数 api (#16909)
llama-index-llms-bedrock-converse
[0.3.8]#
- 为 Bedrock Converse 添加推理配置文件支持并添加 Llama 3.1/3.2 (#16827)
llama-index-llms-nvidia
[0.2.7]#
- 跳过 nvdev llm 模型的模型验证 (#16882)
llama-index-llms-modelscope
[0.3.0]#
- 修复 modelscope 中 'pipeline' 在赋值前被引用 (#16864)
llama-index-llms-ollama
[0.3.6]#
- 修复忽略消息 additional kwargs 中的工具调用问题 (#16764)
llama-index-llms-siliconflow
[0.1.0]#
- 添加 siliconflow llm 类 (#16861)
llama-index-postprocessor-tei-rerank
[0.2.1]#
- 修复 TEI re-ranker 中的 top-n 参数问题 (#16884)
llama-index-readers-gitbook
[0.2.0]#
- 添加 gitbook reader (#16862)
llama-index-readers-google
[0.4.3]#
- 功能:为 google drive 添加相对文件路径 (#16907)
llama-index-readers-file
[0.3.0]#
- 提升版本并将 pypdf 依赖项更新到 5.1.0 (#16905)
llama-index-vector-stores-azureaisearch
[0.2.9]#
- 为 azure search 添加 UserAgent 头部 "llamaindex-python" (#16895)
llama-index-vector-stores-clickhouse
[0.3.2]#
- 修复 vector store 中的 clickhouse 初始化问题 (#16903)
[2024-11-05]#
llama-index-core
[0.11.22]#
- 恢复对上下文聊天引擎中提示模板的支持 (#16821)
- 修复了生成的子问题的 JSON 格式问题 (双花括号) (#16820)
- markdown 分割器改进元数据 (#16789)
- 修复空索引 + 生成合成器问题 (#16785)
llama-index-embeddings-azure-inference
[0.2.4]#
- 支持 api_version 和 Azure AI 模型推理服务 (#16802)
llama-index-embeddings-gemini
[0.2.2]#
- 修复 await-async-embeddings 问题 (#16790)
llama-index-embeddings-siliconflow
[0.1.0]#
- 添加 siliconflow embedding 类 (#16753)
llama-index-indices-managed-vectara
[0.2.4]#
- 热修复:链查询配置 (#16818)
llama-index-llms-anthropic
[0.3.9]#
- 将 Anthropic Claude Haiku 3.5 添加到支持的 Claude 模型列表 (#16823)
llama-index-llms-azure-inference
[0.2.4]#
- 支持 api_version 和 Azure AI 模型推理服务 (#16802)
llama-index-llms-bedrock
[0.2.6]#
- 将 Anthropic Claude Haiku 3.5 添加到 bedrock 和 bedrock-converse 集成支持的 Claude 模型列表 (#16825)
llama-index-llms-bedrock-converse
[0.3.7]#
- 将 Anthropic Claude Haiku 3.5 添加到 bedrock 和 bedrock-converse 集成支持的 Claude 模型列表 (#16825)
llama-index-llms-dashscope
[0.2.5]#
- 对 LLMMetadata 信息更宽松的定义 (#16830)
- 修复抽象方法签名错误 (#16809)
llama-index-llms-vllm
[0.3.0]#
- 为最新的 vllm 移除 beam search 参数 (#16817)
llama-index-postprocessor-colpali-rerank
[0.1.0]#
- 添加 ColPali 作为 reranker (#16829)
llama-index-postprocessor-siliconflow-rerank
[0.1.0]#
- 添加 siliconflow rerank 类 (#16737)
llama-index-readers-microsoft-onedrive
[0.2.2]#
- 修复:为 one drive reader 添加 required_exts (#16822)
llama-index-vector-stores-chroma
[0.3.0]#
- 支持最新 chroma 过滤语法中的破坏性变更 (#16806)
llama-index-vector-stores-pinecone
[0.3.0]#
- 支持稀疏嵌入模型,修复 serverless 的 pinecone 删除问题 (#16819)
[2024-10-31]#
llama-index-core
[0.11.21]#
- 修复了工作流
ctx.get()
默认值设置为 None 的问题 (#16756) - 修复 react agent 流式传输的各种问题 (#16755)
- 为查询管道添加单元测试 (#16749)
- 修复 _merge_ref_doc_kv_pairs 中 for 循环重复问题 (#16739)
- 错误修复:创建索引时确定节点是否为 None (#16703)
- 修复 LLMRerank default_parse_choice_select_answer_fn 解析问题 (#16736)
- 修复工作流的返回类型检查问题 (#16724)
- 修复一个详细输出问题并使 SQL 错误更具信息性 (#16686)
llama-index-embeddings-siliconflow
[0.1.0]#
- 添加 siliconflow embedding 类 (#16753)
llama-index-graph-stores-falkordb
[0.2.4]#
- 支持多图的 FalkorDB (#16482)
llama-index-llms-anthropic
[0.3.8]#
- 为 Vertex AI 添加额外的 claude 模型名称 (#16692)
llama-index-llms-bedrock-converse
[0.3.6]#
- 在 bedrock 中添加了 mistral large2 模型 ID (#16742)
- 改进 Bedrock 工具调用 (#16723)
- 将新的 sonnet3.5 添加到函数调用 bedrock converse 模型 (#16702)
- 更新 bedrock 模型 (#16698)
llama-index-llms-bedrock
[0.2.5]#
- 在 bedrock 中添加了 mistral large2 模型 ID (#16742)
- 将新的 sonnet3.5 添加到函数调用 bedrock converse 模型 (#16702)
- 更新 bedrock 模型 (#16698)
llama-index-llms-cohere
[0.3.2]#
- 添加对 Cohere 新的 Aya-Expanse 模型的支持 (#16733)
llama-index-llms-dashscope
[0.2.3]#
- DashScope llm 支持异步 (#16711)
llama-index-llms-nvidia
[0.3.4]#
- 将 nvidia/llama-3.2-nv-embedqa-1b-v1 添加到支持的模型集合 (#16694)
llama-index-llms-pipeshift
[0.1.0]#
- Pipeshift LlamaIndex 集成 (#16610)
llama-index-memory-mem0
[0.1.0]#
- 添加 Mem0 作为内存 (#16708)
llama-index-multi-modal-llms-anthropic
[0.2.4]#
- 修复 Anthropic 多模态依赖冲突,更新模型 (#16699)
llama-index-node-parser-docling
[0.2.0]#
- 功能:将 Docling reader & node parser 更新到 Docling v2 (#16677)
llama-index-postprocessor-nvidia-rerank
[0.3.3]#
- 将 nvidia/llama-3.2-nv-rerankqa-1b-v1 添加到支持的模型集合 (#16695)
llama-index-postprocessor-siliconflow-rerank
[0.1.0]#
- 添加 siliconflow rerank 类 (#16737)
llama-index-readers-docling
[0.2.0]#
- 功能:将 Docling reader & node parser 更新到 Docling v2 (#16677)
llama-index-readers-microsoft-onedrive
[0.2.1]#
- 功能:为 one drive 元数据添加权限 (#16646)
llama-index-storage-chat-store-azure
[0.2.4]#
- 为 Azure 存储组件添加托管身份认证支持 (#16710)
- 在 azure chat store 中添加缺失的 awaits (#16645)
llama-index-storage-docstore-azure
[0.2.1]#
- 为 Azure 存储组件添加托管身份认证支持 (#16710)
llama-index-storage-index-store-azure
[0.3.1]#
- 为 Azure 存储组件添加托管身份认证支持 (#16710)
llama-index-storage-kvstore-azure
[0.2.1]#
- 为 Azure 存储组件添加托管身份认证支持 (#16710)
llama-index-tools-openai-image-generation
[0.3.0]#
- 使工具与选项更兼容,也为将来考虑 (#16676)
llama-index-tools-vectara-query
[0.1.0]#
- 添加 Vectara 查询工具 (#16722)
llama-index-vector-stores-azureaisearch
[0.2.6]#
- 允许在 Azure Vector Store 中定义可检索字段 (#16766)
- 功能:为 azureai search 添加 get_nodes (#16761)
- 在 AISearch 向量存储中添加了 get_nodes() 函数 (#16653)
- 修复 AzureAISearchVectorStore 中按 ID 查询问题 (修复按 node_ids 删除节点问题) (#16769)
llama-index-vector-stores-hnswlib
[0.2.0]#
- 修复了持久化问题,重新排列并为 HnswlibVectorStore 的构造添加了新选项 (#16673)
llama-index-vector-stores-opensearch
[0.4.1]#
- 使用
os_async_client
初始化 OpensearchVectorClient (#16767)
llama-index-vector-stores-qdrant
[0.3.3]#
- 杂项:在 qdrant get_nodes 返回值中添加嵌入 (#16760)
llama-index-vector-stores-weaviate
[1.1.3]#
- 如果未提供节点 ID,则添加默认 ID (#16671)
[2024-10-24]#
llama-index-core
[0.11.20]#
- [实际没有任何内容!]
llama-index-embeddings-cohere
[0.3.0]#
- 添加对 Cohere 多模态嵌入的支持 (#16667)
llama-index-embeddings-litellm
[0.2.2]#
- 在 litellmembedding 中支持 timeout 参数 (#16532)
llama-index-graph-stores-neo4j
[0.3.5]#
- 使 neo4j schema 刷新可配置 (#16651)
- 修复:在 neo4j 查询中接收来自 dbms 服务器的警告 (#16598)
llama-index-indices-managed-vectara
[0.2.3]#
- 为 vectara 添加 chain 后处理 (#16627)
llama-index-llms-anthropic
[0.3.7]#
- 更新 anthropic 模型名称 (#16643)
llama-index-llms-openai
[0.2.16]#
- 修复: 当 choice.delta 为 None 时跳过处理 (#16636)
llama-index-llms-reka
[0.1.0]#
- Reka llamaindex 集成 (llm 和 multi-modal-llm) (#15753)
llama-index-multi-modal-llms-reka
[0.1.0]#
- Reka llamaindex 集成 (llm 和 multi-modal-llm) (#15753)
llama-index-postprocessor-dashscope-rerank
[0.2.1]#
- 修复 BUG: 调用 DashScopeRerank 时 api_key 参数未设置 (#16665)
llama-index-readers-microsoft-sharepoint
[0.3.4]#
- 在 access token 过期的情况下为请求添加重试逻辑 (#16662)
llama-index-storage-docstore-mongodb
[0.2.1]#
- 修复 mongodb 文档存储缺失依赖错误 (#16654)
llama-index-storage-docstore-couchbase
[0.1.0]#
- 为 DocStore & IndexStore 添加 Couchbase 支持 (#16509)
llama-index-storage-kvstore-couchbase
[0.1.0]#
- 为 DocStore & IndexStore 添加 Couchbase 支持 (#16509)
llama-index-storage-index-store-couchbase
[0.1.0]#
- 为 IndexStore 添加 Couchbase 支持 (#16509)
llama-index-storage-kvstore-mongodb
[0.2.1]#
- 添加 mongodb 键值存储缺失依赖 (#16632)
llama-index-utils-workflow
[0.2.2]#
- 修复 HITL 的绘图 (#16624)
[2024-10-18]#
llama-index-core
[0.11.19]#
- 处理 asyncio futures 时正确抛出仪器化错误 (#16603)
- 修复: 在 PGRetriever 中正确传递参数给 VectorStoreQuery (#16586)
- 修复结构化预测类型提示 (#16585)
- 添加 retry_on_exceptions_with_backoff 工具的异步版本 (#16374)
- 改进 CONTRIBUTING.md 文档 (#16548)
llama-index-embeddings-gaudi
[0.1.0]#
- 在 llama-index-embeddings-gaudi 中添加与 Intel Gaudi 的嵌入集成 (#16521)
llama-index-embeddings-openvino
[0.4.1]#
- 通过 OpenVINO embedding 添加 OpenClip 支持 (#16554)
llama-index-graph-stores-neo4j
[0.3.4]#
- 修复: 移除 neo4j 查询中 dbms 服务器的警告 (#16598)
llama-index-llms-ibm
[0.2.2]#
- IBM watsonx.ai 聊天集成 + 函数调用支持 (#16589)
llama-index-llms-mistralai
[0.2.7]#
- 添加对 mistral 最新模型的支持 (#16571)
llama-index-llms-openai
[0.2.15]#
- 在 function_calling 方法中添加对微调模型的检查 (#16568)
- 允许直接传入 openai 客户端 (#16560)
llama-index-llms-replicate
[0.3.0]#
- 使用 Replicate 流式 API (#16597)
llama-index-multi-modal-llms-openvino
[0.1.0]#
- 添加 OpenVINO 多模态支持 (#16567)
llama-index-multi-modal-llms-zhipuai
[0.1.0]#
- 添加 zhipuai 多模态 LLM 类 (#16551)
llama-index-readers-google
[0.4.2]#
- 使用 credential 文件中重定向 uri 的端口运行本地服务器 (GoogleDocsReader) (#16327)
llama-index-storage-chat-store-postgres
[0.1.0]#
- 功能: postgres 聊天存储集成 (#16557)
llama-index-storage-chat-store-upstash
[0.1.2]#
- 修复 upstash 聊天存储中的 pydantic 错误 (#16559)
llama-index-vector-stores-azurecosmosmongo
[0.2.2]#
- 为 Azure Cosmos DB Mongo 向量存储添加 DiskANN (#16581)
llama-index-vector-stores-hnswlib
[0.1.0]#
- Hnswlib 向量存储集成 (#16443)
llama-index-vector-stores-oceanbase
[0.1.0]#
- 添加 OceanBase 的向量存储集成 (#16550)
llama-index-vector-stores-qdrant
[0.3.2]#
- 在 Qdrant 向量数据库中添加文本字段的可选名称 (#16576)
[2024-10-14]#
llama-index-core
[0.11.18]#
- 在 PG Retrieval 中添加文本时处理空节点列表 (#16447)
- 改进 text2sql 解析 (#16445)
llama-index-embeddings-litellm
[0.2.2]#
- 在 litellmembedding 中支持 timeout 参数 (#16532)
llama-index-embeddings-zhipuai
[0.1.0]#
- 添加 zhipuai embedding 类 (#16505)
llama-index-graph-stores-memgraph
[0.1.0]#
- 添加 Memgraph 图存储集成 (#16345)
llama-index-llms-anthropic
[0.3.6]#
- 添加 anthropic bedrock 支持 (#16478)
llama-index-llms-databricks
[0.2.1]#
- 修复 Databricks structured_predict (#16527)
llama-index-multi-modal-llms-anthropic
[0.2.3]#
- 在 AnthropicMultiModal 中传播 default_headers (#16496)
llama-index-readers-document360
[0.1.0]#
- 添加 Document360Reader。由 PLACE 团队贡献 (#16305)
llama-index-readers-zyte-serp
[0.1.0]#
- 添加 Zyte serp 集成 (#16417)
llama-index-readers-upstage
[0.2.1]#
- 添加 UpstageDocumentParseReader (#16099)
llama-index-storage-chat-store-azure
[0.2.2]#
- 修复 azure 聊天存储中的异步方法 (#16531)
llama-index-tools-weather
[0.1.0]#
- 修复 format temp 函数 (#16487)
llama-index-vector-stores-elasticsearch
[0.3.3]#
- 在 Elasticsearch 集成中添加对自定义元数据关键词后缀的支持 (#16519)
llama-index-vector-stores-nile
[0.1.0]#
- 添加 Nile (multi-tenant postgres) 的向量存储集成 (#16437)
llama-index-vector-stores-opensearch
[0.4.0]#
- 使用高效的 kNN 过滤,修复输入值为字符串数组时的过滤问题 (#16393)
llama-index-vector-stores-oracledb
[0.1.4]#
- Oracle 向量存储集成的各种修复 (#16536)
llama-index-vector-stores-qdrant
[0.3.1]#
- 更新 Qdrant utils.py 中的模型名称拼写错误 (#16494)
llama-index-vector-stores-timescalevector
[0.2.2]#
- 修复 timescale 向量存储类 (#16539)
llama-index-vector-stores-weaviate
[1.1.2]#
- 修复 Weaviate 相似性得分问题 (#16489)
[2024-10-08]#
llama-index-core
[0.11.17]#
- 修复 ChatMessage 序列化问题 (使用 janky openai 类型) (#16410)
llama-index-embeddings-gemini
[0.2.1]#
- 修复 gemini embedding 异步方法 (#16369)
llama-index-llms-gaudi
[0.1.0]#
- 在 llama-index-llms-gaudi 中添加与 Intel Gaudi 的 LLM 集成 (#16308)
llama-index-llms-openai
[0.2.12]#
- 如果没有工具调用,则不包含 (#16408)
llama-index-multi-modal-llms-huggingface
[0.1.1]#
- LlamaMultiModal 类错误修复 (#16413)
- MultiModal.HuggingFaceMultiModal: 修复错误和 README,添加 stream_complete (#16376)
llama-index-node-parser-docling
[0.1.0]#
- 功能: 添加 Docling 读取器和节点解析器 (#16406)
llama-index-readers-docling
[0.1.0]#
- 功能: 添加 Docling 读取器和节点解析器 (#16406)
llama-index-readers-zyte-serp
[0.1.0]#
- 添加 Zyte serp 集成 (#16417)
llama-index-vector-stores-azureaisearch
[0.2.2]#
- 修复(错误): 修复确保 metadata_mapping 值的错误 (#16431)
llama-index-vector-stores-objectbox
[0.1.0]#
- 添加 ObjectBox 向量存储集成 (#16314)
[2024-10-03]#
llama-index-core
[0.11.16]#
- 将非字典工具 JSON 函数参数视为空 (而不是意外抛出异常) (#16316)
- 修复工作流的仪器化 (#16290)
- (临时解决方案) 在工作流跟踪期间抑制 token 分离异常 (#16364)
- 当节点没有内容时,抛出警告而不是错误 (#16354)
- 修复 BasePGRetriever 中的拼写错误,导致未添加图形上下文 (#16357)
llama-index-embeddings-vertex-endpoint
[0.1.0]#
- 添加 vertex endpoint embedding (#16351)
llama-index-llms-fireworks
[0.2.1]#
- 在 FireworksAI 中添加对 Meta 3.2 模型的支持: 1b-instruct; 3b-instruct; 11b-vision; 90b-vision (#16349)
llama-index-multi-modal-llms-openai
[0.2.1]#
- 重构 OpenAI
update_tool_calls
(#16309)
llama-index-vector-stores-milvus
[0.2.7]#
- 添加对嵌套 MetadataFilters 和 FilterOperator.IS_EMPTY 的支持 (#16329)
[2024-10-02]#
llama-index-core
[0.11.15]#
- 为工作流上下文添加了
to_dict()
,from_dict()
和序列化器 (#16250) - 使用
handler.cancel_run()
取消工作流执行的能力 (#16320) - (重大变更) 重构
WorkflowHandler.run_step()
,以便用户手动触发事件来启动工作流的下一步骤 (#16277)
llama-index-embeddings-oracleai
[0.1.0]#
- Oraclevs 集成 (#16161)
llama-index-experimental
[0.4.0]#
- nudge-ft 包并添加扩展数据集的示例 (#16269)
llama-index-llms-anthropic
[0.3.3]#
- 为 Anthropic LLM 添加提示缓存支持 (#16270)
llama-index-llms-gemini
[0.3.6]#
- 在 Google Gemini LLMs 的原始数据中输出 token 用量 (#16313)
llama-index-llms-openai
[0.2.10]#
- 为 azure openai models 添加 4o mini (#16335)
llama-index-llms-vertex
[0.3.7]#
- 移除 Vertex AI 模型的 generation config 中的安全设置 (#16337)
llama-index-multi-modal-llms-huggingface
[0.1.0]#
- LlamaIndex Multi_Modal_Llms 集成: Huggingface (#16133)
llama-index-readers-minio
[0.2.1]#
- 移除额外的打印语句并替换创建临时文件的函数 (#16291)
llama-index-readers-oracleai
[0.1.0]#
- Oraclevs 集成 (#16161)
llama-index-readers-web
[0.2.3]#
- 添加 Zyte Web 读取器 (#16197)
llama-index-retrievers-bm25
[0.4.0]#
- 升级 bm25s 最新版本的依赖 (#16339)
- 更新 BM25 检索器以使用元数据 (#16267)
llama-index-storage-chat-store-redis
[0.3.2]#
- 修复 redis 聊天存储中异步客户端的检查 (#16321)
llama-index-storage-chat-store-upstash
[0.1.0]#
- Upstash Storage Chat Store 集成 (#16237)
llama-index-vector-stores-milvus
[0.2.6]#
- milvus: 总是设置 self._collection (#16306)
- 修复带 index_config 的 milvus 集合创建 (#16165)
llama-index-vector-stores-oracledb
[0.1.0]#
- Oracledb 集成 (#16161)
llama-index-vector-stores-postgres
[0.2.6]#
- 在 Postgres 向量存储中支持 TEXT_MATCH FilterOperator (#16304)
[2024-09-26]#
llama-index-core
[0.11.14]#
- 增强 BaseIndex 中的 insert 方法以支持自定义转换 (#16206)
- 确保 ChatMemoryBuffer 的聊天历史永远不会以 TOOL 消息开头 (#16214)
- 安全提示辅助字符串格式化 (#16219)
- [功能请求] 支持最大并发 workflow_instance.run() 执行 (#16215)
- 工作流 + 人机协作专用支持 (#16220)
llama-index-graph-stores-neptune
[0.2.2]#
- 传入提供的客户端时修复 NoneType 对象错误 (#16174)
llama-index-llms-ollama
[0.3.3]#
- 修复 ollama 聊天缺失
keep_alive
(#16182)
llama-index-llms-vertex
[0.3.6]#
- 修复 vertex 初始化函数 (#16216)
llama-index-multi-modal-llms-mistral
[0.1.0]#
- 添加对 Mistral Multi modal LLM 的支持 (#16191)
llama-index-readers-jira
[0.3.0]#
- 添加 Jira Reader 的分页支持 (#16226)
llama-index-vector-stores-azurecosmosmongo
[0.2.1]#
- Azure Cosmos DB 过滤向量搜索 (#16175)
llama-index-vector-stores-azurecosmosnosql
[1.1.0]#
- Azure Cosmos DB 过滤向量搜索 (#16175)
llama-index-vector-stores-deeplake
[0.2.1]#
- 添加缺失的 JWT 依赖项 (#16236)
[2024-09-24]#
llama-index-core
[0.11.13]#
- 为属性图检索添加字符串节点表示选项 (#16100)
- 改进 markdown 元素节点解析器和结构化预测可靠性 (#16172)
llama-index-graph-stores-neptune
[0.2.1]#
- 修复 Neptune 添加额外标签的问题 (#16137)
llama-index-llms-vertext
[0.3.5]#
- 将 safety_settings 传递给 send_message 方法,修复设置未发送到 API 的问题 (#16153)
llama-index-readers-box
[0.2.3]#
- 升级 box sdk 到 >= 1.5.0 #16169
llama-index-storage-chat-store-dynamodb
[0.2.0]#
- dynamodb 的异步支持 (#16139)
llama-index-storage-chat-store-redis
[0.3.1]#
- redis 的异步支持 (#16139)
llama-index-vector-stores-astra-db
[0.3.0]#
- AstraDBVectorStore 依赖于 AstraPy 1.5 及以上版本 (#16164)
[2024-09-22]#
llama-index-core
[0.11.12]#
- 修正 llm 基类发出的 Pydantic 警告 (#16141)
- 使用 JSON 全局安全格式化提示变量 (#15734)
- 考虑提示辅助和响应合成器中的工具 (#16157)
llama-index-readers-google
[0.4.1]#
- 功能: 在 google drive reader 元数据中添加驱动器链接 (#16156)
llama-index-readers-microsoft-sharepoint
[0.3.2]#
- 为 SharePoint reader 添加 required_exts 选项 (#16152)
llama-index-vector-stores-milvus
[0.2.4]#
- 在 MilvusVectorStore 中支持用户定义的 schema (#16151)
[2024-09-20]#
llama-index-core
[0.11.11]#
- 在上下文聊天引擎中使用响应合成器 (#16017)
- 异步聊天内存操作 (#16127)
- Sql 查询添加 markdown 响应选项 (#16103)
- 为 SimpleDirectoryReader 添加 Path 支持 (#16108)
- 更新多模态的聊天消息类 (#15969)
- 修复:
handler.stream_events()
未生成 StopEvent (#16115) - 在 vector retriever 中传递
hybrid_top_k
(#16105)
llama-index-embeddings-elasticsearch
[0.2.1]#
- 修复 elasticsearch embedding 异步函数 (#16083)
llama-index-embeddings-jinaai
[0.3.1]#
- 功能: 更新 JinaEmbedding 以支持 v3 版本 (#15971)
llama-index-experimental
[0.3.3]#
- 增强 Pandas Query Engine Output Processor (#16052)
llama-index-indices-managed-vertexai
[0.1.1]#
- 修复 VertexAIIndex 客户端中不正确的参数 (#16080)
llama-index-node-parser-topic
[0.1.0]#
- 基于 MedGraphRAG 论文添加 TopicNodeParser (#16131)
llama-index-multi-modal-llms-ollama
[0.3.2]#
- 为多模态 ollama 实现异步 (#16091)
llama-index-postprocessor-cohere-rerank
[0.2.1]#
- 功能: 在 rerank 中添加可配置的 base_url 字段 (#16050)
llama-index-readers-file
[0.2.2]#
- 修复缺失 bytesio 导入的错误 (#16096)
llama-index-readers-wordpress
[0.2.2]#
- Wordpress: 允许控制是否检索页面和/或文章 (#16128)
- 修复问题 16071: wordpress 需要用户名、密码 (#16072)
llama-index-vector-stores-lancedb
[0.2.1]#
- 修复使用最新 lancedb 客户端的混合搜索 (#16057)
llama-index-vector-stores-mongodb
[0.3.0]#
- 修复 mongodb 混合搜索 top-k 规范 (#16105)
[2024-09-16]#
llama-index-core
[0.11.10]#
- 工作流的上下文/结果重构 (#16036)
- 添加稀疏嵌入抽象 (#16018)
- 修复 Pydantic 模型数字验证 (#16008)
- 人机协作工作流示例 (#16011)
llama-index-callbacks-opik
[0.1.0]#
- opik 集成 (#16007)
llama-index-indices-managed-llama-cloud
[0.3.1]#
- 使用图像节点更新 llamacloud 索引 (#15996)
llama-index-indices-managed-vectara
[0.2.2]#
- 热修复: 修复引用文本 (#16015)
llama-index-llms-huggingface
[0.3.4]#
- 修复: HuggingFace LLM 在提供 tokenizer 参数时不必要的警告问题 (#16037)
llama-index-readers-dashvector
[0.3.0]#
- 修复: DashVector 新数据连接器适配 (#16028)
llama-index-readers-quip
[0.1.0]#
- 添加 quip 读取器 (#16000)
llama-index-sparse-embeddings-fastembed
[0.1.0]#
- 添加 fastembed 稀疏嵌入 (#16018)
llama-index-vector-stores-elasticsearch
[0.2.1]#
- 修复: 从 Elasticsearch KVStore 获取所有文档 (#16006)
llama-index-vector-stores-lancedb
[0.2.3]#
- 暂时限制 lancedb 版本 (#16045)
llama-index-vector-stores-postgres
[0.2.5]#
- 在 PGVectorStore 上实现
get_nodes()
(#16026)
[2024-09-12]#
llama-index-core
[0.11.9]#
- 从 args 为 retriever query engine 添加 callback manager (#15990)
- 不要将 system prompt 从 fn calling runner 传递给 fn calling worker (#15986)
- 修复: 如果工具名称包含非英文字符,解析 react 输出时出错 (#15956)
llama-index-embeddings-alibabacloud-aisearch
[0.1.0]#
- 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)
llama-index-experimental
[0.3.1]#
- 添加 NUDGE 微调 (#15954)
llama-index-graph-stores-falkordb
[0.2.2]#
- 更新 falkordb 客户端 (#15940)
llama-index-llms-openai
[0.2.5]#
- 添加对 o1 openai 模型的支持 (#15979)
- 强制 o1 的 temp 为 1.0 (#15983)
llama-index-node-parser-alibabacloud-aisearch
[0.1.0]#
- 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)
llama-index-postprocessor-alibabacloud-aisearch-rerank
[0.1.0]#
- 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)
llama-index-readers-alibabacloud-aisearch
[0.1.0]#
- 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)
llama-index-vector-stores-opensearch
[0.3.0]#
- 在 OpenSearchVectorClient 中区分同步和异步调用 (#15945)
llama-index-vector-stores-postgres
[0.2.4]#
- 修复 PGVectorStore 中的属性错误 (#15961)
- 添加对引擎参数的支持 (#15951)
llama-index-vector-stores-wordlift
[0.4.5]#
- 捕获 nest_asyncio 错误 (#15975)
[2024-09-09]#
llama-index-core
[0.11.8]#
- 功能: 为工作流步骤添加重试策略配置 (#15757)
- 在 Langchain 格式转换中添加文档 ID (#15928)
llama-index-chat-store-dynamodb
[0.1.0]#
- 添加 DynamoDBChatStore (#15917)
llama-index-cli
[0.3.1]#
- 修复 RagCLI pydantic 错误 (#15931)
llama-index-llms-alibabacloud-aisearch
[0.1.0]#
- 添加 llama-index llms alibabacloud_aisearch 集成 (#15850)
llama-index-llms-mistralai
[0.2.3]#
- 使默认的 mistral 模型支持使用
large-latest
进行函数调用 (#15906)
llama-index-llms-vertex
[0.3.4]#
- 将 InternalServerError 添加到重试装饰器 (#15921)
llama-index-postprocessor-rankllm-rerank
[0.3.0]#
- 使用新的重排器更新 RankLLM (#15892)
llama-index-vector-stores-azurecosmosnosql
[1.0.0]#
- 添加 Azure Cosmos DB NoSql 的向量存储 (#14158)
llama-index-readers-microsoft-sharepoint
[0.3.1]#
- 修复 sharepoint reader 中的错误处理,修复下载文件错误 (#15868)
llama-index-vector-stores-wordlift
[0.4.4]#
- 为 WordLift Vector Store 添加 MetadataFilters 支持 (#15905)
llama-index-vector-stores-opensearch
[0.2.2]#
- 使用 knn_score 脚本支持 Opensearch Serverless 过滤查询 (#15899)
[2024-09-06]#
llama-index-core
[0.11.7]#
- 使 SentenceSplitter 的 secondary_chunking_regex 成为可选 (#15882)
- 强制 openai 结构化输出 (#15706)
- 修复断言错误,为流式 agent 添加类型忽略 (#15887)
- 修复图片文档反序列化问题 (#15857)
llama-index-graph-stores-kuzu
[0.3.2]#
- KuzuPropertyGraphStore 的错误修复: 即使块缺失,也允许更新/插入关系 (#15889)
llama-index-llms-bedrock-converse
[0.3.0]#
- 从 Bedrock Converse 中移除未使用的 llama-index-llms-anthropic 依赖 (#15869)
llama-index-vector-stores-postgres
[0.2.2]#
- 修复使用最新 pydantic 的 PGVectorStore,更新 pydantic 导入 (#15886)
llama-index-vector-stores-tablestore
[0.1.0]#
- 添加 TablestoreVectorStore (#15657)
[2024-09-05]#
llama-index-core
[0.11.6]#
- 将 llama-deploy 文档添加到文档构建中 (#15794)
- 添加 oreilly 课程指南 (#15845)
llama-index-readers-box
[0.2.1]#
- 各种错误修复 (#15836)
llama-index-readers-file
[0.2.1]#
- 更新 ImageReader 文件加载逻辑 (#15848)
llama-index-tools-box
[0.2.1]#
- 各种错误修复 (#15836)
llama-index-vector-stores-opensearch
[0.2.1]#
- 在删除操作后刷新 Opensearch 索引 (#15854)
[2024-09-04]#
llama-index-core
[0.11.5]#
- 移除属性图检索中不必要的断言 (#15832)
- 使简单属性图再次可序列化 (#15833)
- 修复核心组件的 fastapi 返回类型的 json schema (#15816)
llama-index-llms-nvidia
[0.2.2]#
- NVIDIA llm: 添加对 starcoder 模型的 Completion 支持 (#15802)
llama-index-llms-ollama
[0.3.1]#
- 添加 ollama 响应使用情况 (#15773)
llama-index-readers-dashscope
[0.2.1]#
- 修复 pydantic v2 验证错误 (#15800)
llama-index-readers-discord
[0.2.1]#
- 修复: 在 DiscordReader 中将 Document id 从 int 转换为 string (#15806)
llama-index-vector-stores-mariadb
[0.1.0]#
- 添加 MariaDB 向量存储集成包 (#15564)
[2024-09-02]#
llama-index-core
[0.11.4]#
- 为核心添加 mypy (#14883)
- 修复不正确的仪器化字段/类型 (#15752)
- FunctionCallingAgent sources 错误 + 创建 agent 的轻量级封装 (#15783)
- 添加 text to sql 高级工作流 nb (#15775)
- 修复: 流式工作流后移除上下文以再次启用流式 (#15776)
- 修复聊天内存持久化和加载方法以使用正确的 JSON 格式 (#15545)
- 修复 Pydantic V2 中
_example_type
类变量被读取为私有属性的问题 (#15758)
llama-index-embeddings-litellm
[0.2.1]#
- 为 LiteLLMEmbedding 添加 dimensions 参数,修复阻止从环境变量读取变量的错误 (#15770)
llama-index-embeddings-upstage
[0.2.1]#
- 错误修复 upstage embedding (初始化 UpstageEmbedding 类时) (#15767)
llama-index-embeddings-sagemaker-endpoint
[0.2.2]#
- 修复 Sagemaker Field required 问题 (#15778)
llama-index-graph-stores-falkordb
[0.2.1]#
- 修复带特殊字符的关系更新/插入 (#15769)
llama-index-graph-stores-neo4j
[0.3.1]#
- 为 neo4j lpg 添加原生向量索引支持并修复向量过滤器 (#15759)
llama-index-llms-azure-inference
[0.2.2]#
- 修复: GitHub Models 元数据检索 (#15747)
llama-index-llms-bedrock
[0.2.1]#
- 更新
base.py
修复self
问题 (#15729)
llama-index-llms-ollama
[0.3.1]#
- 添加 ollama 响应使用情况 (#15773)
llama-index-llms-sagemaker-endpoint
[0.2.2]#
- 修复 Sagemaker Field required 问题 (#15778)
llama-index-multi-modal-llms-anthropic
[0.2.1]#
- 支持在不知道文件名的情况下检测图像类型 (#15763)
llama-index-vector-stores-milvus
[0.2.2]#
- 功能: 为 MilvusVectorStore 实现 get_nodes (#15696)
llama-index-vector-stores-tencentvectordb
[0.2.1]#
- 修复: tencentvectordb 属性名称不一致 (#15733)
[2024-08-29]#
llama-index-core
[0.11.3]#
- 重构: 合并 Context 和 Session 以简化工作流 api (#15709)
- 杂项: 停止在工作流文档中使用已废弃的
ctx.data
(#15716) - 修复: 当一个步骤抛出异常时停止流式工作流事件 (#15714)
- 修复多模态 LLM 的 llm_chat_callback (#15700)
- 杂项: 增加工作流包的单元测试覆盖率 (#15691)
- 修复 SimpleVectorStore.from_persist_dir() 行为 (#15534)
llama-index-embeddings-azure-openai
[0.2.5]#
- 修复 azure 嵌入的 json 序列化问题 (#15724)
llama-index-graph-stores-kuzu
[0.3.0]#
- 添加 KuzuPropertyGraphStore (#15678)
llama-index-indices-managed-vectara
[0.2.1]#
- 添加了新的用户定义函数重排器 (#15546)
llama-index-llms-mistralai
[0.2.2]#
- 修复 mistral llm 中的
random_seed
类型 (#15701)
llama-index-llms-nvidia
[0.2.1]#
- 为 nvidia llm 添加函数/工具调用支持 (#15359)
llama-index-multi-modal-llms-ollama
[0.3.0]#
- 升级多模态 LLM 的 ollama 客户端依赖 (#15702)
llama-index-readers-web
[0.2.1]#
- 修复: Firecrawl 抓取 URL 响应 (#15720)
llama-index-selectors-notdiamond
[0.1.0]#
- 将 Not Diamond 添加到 llama_index (#15703)
llama-index-vector-stores-milvus
[0.2.3]#
- Milvus 向量存储中的 MMR (#15634)
- 功能: 为 MilvusVectorStore 实现 get_nodes (#15696)
[2024-08-27]#
llama-index-core
[0.11.2]#
- 修复 pydantic v2 工具 schema 生成以处理嵌套模型 (#15679)
- 功能: 支持嵌套工作流的默认值 (#15660)
- 功能: 允许 FunctionTool 仅使用异步函数 (#15638)
- 功能: 允许从步骤流式传输事件 (#15488)
- 修复 auto-retriever pydantic 缩进错误 (#15648)
- 使用工作流实现 Router Query Engine 示例 (#15635)
- 使用工作流添加多步查询引擎示例 (#15438)
- 开始跟踪 LLM 级别操作 (#15542)
- 在 CodeSplitter 的 from_defaults 中将 callback_manager 传递给 init (#15585)
llama-index-embeddings-xinference
[0.1.0]#
- 添加 Xinference Embedding 类 (#15579)
llama-index-llms-ai21
[0.3.3]#
- 集成: AI21 函数调用支持 (#15622)
llama-index-llms-anthropic
[0.3.0]#
- 添加了通过 GCP Vertex AI 对 anthropic 模型的支持 (#15661)
llama-index-llms-cerebras
[0.1.0]#
- 实现 Cerebras 集成 (#15665)
llama-index-postprocessor-nvidia-rerank
[0.3.1]#
- 修复下载的 nim 端点路径 (#15645)
- 修复 llama-index-postprocessor-nvidia-rerank 测试 (#15643)
llama-index-postprocessor-xinference-rerank
[0.1.0]#
- 添加 xinference rerank 类 (#15639)
llama-index-vector-stores-alibabacloud-opensearch
[0.2.1]#
- 修复 AlibabaCloudOpenSearchConfig 中的输出字段设置 (#15562)
llama-index-vector-stores-azureaisearch
[0.2.1]#
- 将 azure-search-documents 升级到 2024-07-01 GA API 并在索引创建中添加对 Scalar 和 Binary Quantization 的支持 (#15650)
llama-index-vector-stores-neo4j
[0.2.1]#
- Neo4j Vector Store: 使嵌入维度检查成为可选 (#15628)
llama-inde-vector-stores-milvus
[0.2.1]#
- 更改 Milvus 的默认一致性级别 (#15577)
llama-index-vector-stores-elasticsearch
[0.3.2]#
- 修复 ElasticsearchStore key 错误 (#15631)
[2024-08-23]#
llama-index-core
[0.11.1]#
- 将客户端文档搜索替换为 algolia (#15574)
- 添加扩展工作流的文档 (#15573)
- 将嵌套工作流的方法重命名为 add_workflows (#15596)
- 杂项: 修复核心代码库中的 @step 用法 (#15588)
- 修改 ReflectionWorkflow 示例笔记本中的 validate 函数以使用 pydantic model_validate_json 方法 (#15567)
- 功能: 允许同一工作流实例并发运行 (#15568)
- 文档: 从文档和示例中移除冗余的 pass_context=True (#15571)
llama-index-embeddings-openai
[0.2.3]#
- 修复使用 pydantic v2 的 openai 嵌入 (#15576)
llama-index-embeddings-voyageai
[0.2.1]#
- 升级 voyage ai embedding 客户端依赖 (#15595)
llama-index-llms-vertex
[0.3.3]#
- Vertex LLM: 正确地将函数调用部分添加到提示中 (#15569)
- Vertex LLM: 移除手动将消息内容设置为 Function Calling 的操作 (#15586)
[2024-08-22]#
llama-index-core
[0.11.0]#
- 移除已废弃的
ServiceContext
-- 现在使用它将打印错误并提供迁移指南链接 - 移除已废弃的
LLMPredictor
-- 现在使用它将打印错误,任何现有的 LLM 都可以直接替换 - 将
pandas
设为可选依赖项
其他所有项
#
- 升级了每个包的次版本号,以配合新版本的
llama-index-core
[2024-08-21]#
llama-index-core
[0.10.68]#
- 移除基本元素节点解析器中的嵌套进度条 (#15550)
- 添加详尽的工作流文档 (#15556)
- 添加带反射的多策略工作流笔记本示例 (#15445)
- 从核心移除 openai 依赖 (#15527)
- 改进 token 计数器以处理更多响应类型 (#15501)
- 功能: 允许在不带括号的情况下使用 step 装饰器 (#15540)
- 功能: 工作流服务 (即嵌套工作流) (#15325)
- 移除在 TextToCypher retriever 中使用 "cypher_validator" 时指定 "allowed_query_fields" 参数的要求 (#15506)
llama-index-embeddings-mistralai
[0.1.6]#
- 修复 mistral 嵌入使用问题 (#15508)
llama-index-embeddings-ollama
[0.2.0]#
- 使用 ollama 客户端进行嵌入 (#15478)
llama-index-embeddings-openvino
[0.2.1]#
- 支持 openvino embedding 和 reranker 的静态输入形状 (#15521)
llama-index-graph-stores-neptune
[0.1.8]#
- 添加代码以暴露 Neptune 的结构化 schema (#15507)
llama-index-llms-ai21
[0.3.2]#
- 集成: AI21 工具支持 (#15518)
llama-index-llms-bedrock
[0.1.13]#
- 支持 bedrock 集成的 token 计数 (#15491)
llama-index-llms-cohere
[0.2.2]#
- 功能: 为 achat cohere 添加工具调用支持 (#15539)
llama-index-llms-gigachat
[0.1.0]#
- 添加 gigachat LLM 支持 (#15313)
llama-index-llms-openai
[0.1.31]#
- 修复 OpenAI token 使用报告中的不正确类型 (#15524)
- 允许 openai 的流式 token 计数 (#15548)
llama-index-postprocessor-nvidia-rerank
[0.2.1]#
- 添加截断支持 (#15490)
- 更新到 0.2.0,移除旧代码 (#15533)
- 更新默认模型为 nvidia/nv-rerankqa-mistral-4b-v3 (#15543)
llama-index-readers-bitbucket
[0.1.4]#
- 修复从 bitbucket 加载文件路径的问题 (#15311)
llama-index-readers-google
[0.3.1]#
- 增强 google drive reader 以改进功能性和可用性 (#15512)
llama-index-readers-remote
[0.1.6]#
- 检查并净化远程读取器 URL (#15494)
llama-index-vector-stores-qdrant
[0.2.17]#
- 修复: 在 QdrantVectorStore 中为稀疏向量设置 IDF modifier (#15538)
[2024-08-18]#
llama-index-core
[0.10.67]#
- 避免使用 nltk 3.9,因为它已损坏 (#15473)
- 文档: openllmetry 现在使用 instrumentation (#15443)
- 修复 LangChainDeprecationWarning (#15397)
- 为 Context 添加 get/set API 并使其协程安全 (#15152)
- 文档: Cleanlab 指南 (#15352)
- 在 vector stores 的 async_add() 中传递 kwargs (#15333)
- 在结构化 LLM 中转义 json (#15404)
- 文档: 添加使用工作流的 JSONAlyze Query Engine 指南 (#15408)
llama-index-embeddings-gigachat
[0.1.0]#
- 添加 GigaChat embedding (#15278)
llama-index-finetuning
[0.1.12]#
- 功能: 集成 Azure OpenAI 微调 (#15297)
llama-index-graph-stores-neptune
[0.1.7]#
- 暴露 NeptuneQueryException 并添加额外调试信息 (#15448)
- 修复问题 #15414 并添加对 Neptune Analytics 进行部分匹配的能力 (#15415)
- 使用反引号转义标签 (#15324)
llama-index-llms-cohere
[0.2.1]#
- 功能: 为 cohere 添加工具调用 (#15144)
llama-index-packs-corrective-rag
[0.1.2]#
- 将 LongRAGPack, Corrective RAG Pack 和 Self-Discover Pack 移植到工作流 (#15160)
llama-index-packs-longrag
[0.1.1]#
- 将 LongRAGPack, Corrective RAG Pack 和 Self-Discover Pack 移植到工作流 (#15160)
llama-index-packs-self-discover
[0.1.2]#
- 将 LongRAGPack, Corrective RAG Pack 和 Self-Discover Pack 移植到工作流 (#15160)
llama-index-readers-preprocess
[0.1.4]#
- 增强 PreprocessReader (#15302)
[2024-08-15]#
llama-index-core
[0.10.66]#
- 由于最新版本已从 pypi 中移除,暂时恢复 nltk 依赖项
- 添加带工作流的引用查询引擎示例 (#15372)
- 错误: Semantic double merging splitter 创建的块大于 chunk 大小 (#15188)
- 功能: 使工作流中的
send_event()
分配目标步骤 (#15259) - 使所有工作流事件像映射一样可访问 (#15310)
llama-index-indices-managed-bge-m3
[0.1.0]#
- 添加 BGEM3Index (#15197)
llama-index-llms-huggingface
[0.2.7]#
- 更新 HF 的 completion_to_prompt (#15354)
llama-index-llms-sambanova
[0.1.0]#
- SambaNova (Sambaverse and SambaStudio) 与 Llama-index 的封装 (#15220)
llama-index-packs-code-hierarchy
[0.1.7]#
- 更新 code_hierarchy.py 添加 php 支持 (#15145)
llama-index-postprocessor-dashscope-rerank
[0.1.4]#
- 调用 llama-index-postprocessor-dashscope-rerank 时修复错误 (#15358)
llama-index-readers-box
[0.1.2]#
- Box 重构: Box 文件到 Llama-Index 文档适配器 (#15314)
llama-index-readers-gcs
[0.1.8]#
- GCSReader: 实现 ResourcesReaderMixin 和 FileSystemReaderMixin (#15365)
llama-index-tools-box
[0.1.1]#
- Box 重构: Box 文件到 Llama-Index 文档适配器 (#15314)
- 用于 AI Agent 的 Box 工具 (#15236)
llama-index-vector-stores-postgres
[0.1.14]#
- 检查 hnsw 索引是否存在 (#15287)
[2024-08-12]#
llama-index-core
[0.10.65]#
- 杂项: 升级 nltk 版本 (#15277)
llama-index-tools-box
[0.1.0]#
- 用于 AI Agent 的 Box 工具 (#15236)
llama-index-multi-modal-llms-gemini
[0.1.8]#
- 功能: 为 Gemini multi-model 添加 default_headers (#15296)
llama-index-vector-stores-clickhouse
[0.2.0]#
- 杂项: clickhouse 集成停止使用 ServiceContext (#15300)
llama-index-experimental
[0.2.0]#
- 杂项: experimental 包移除 ServiceContext 用法 (#15301)
llama-index-extractors-marvin
[0.1.4]#
- 修复: MarvinMetadataExtractor 功能并应用异步支持 (#15247)
llama-index-utils-workflow
[0.1.1]#
- 杂项: 升级 black 版本 (#15288)
- 杂项: 升级 nltk 版本 (#15277)
llama-index-readers-microsoft-onedrive
[0.1.9]#
- 杂项: 升级 nltk 版本 (#15277)
llama-index-embeddings-upstage
[0.1.3]#
- 杂项: 升级 nltk 版本 (#15277)
llama-index-embeddings-nvidia
[0.1.5]#
- 杂项: 升级 nltk 版本 (#15277)
llama-index-embeddings-litellm
[0.1.1]#
- 杂项: 升级 nltk 版本 (#15277)
llama-index-legacy
[0.9.48post1]#
- 杂项: 升级 nltk 版本 (#15277)
llama-index-packs-streamlit-chatbot
[0.1.5]#
- 杂项: 升级 nltk 版本 (#15277)
llama-index-embeddings-huggingface
[0.2.3]#
- 功能: 为创建 hf embeddings 添加多进程支持 (#15260)
[2024-08-09]#
llama-index-core
[0.10.64]#
- 修复: 子节点未携带源节点的元数据 (#15254)
- 工作流: 修复装饰器中的验证错误 (#15252)
- 修复: 在 SQL Retriever 中剥离 '''sql (Markdown SQL 代码片段) (#15235)
llama-index-indices-managed-colbert
[0.2.0]#
- 移除 Colbert 集成中 ServiceContext 的使用 (#15249)
llama-index-vector-stores-milvus
[0.1.23]#
- 功能: 支持 Milvus 集合属性 (#15241)
llama-index-llms-cleanlab
[0.1.2]#
- 更新 Cleanlab TLM 支持的模型 (#15240)
llama-index-llms-huggingface
[0.2.6]#
- 为 HF 聊天模板添加生成提示 (#15239)
llama-index-llms-openvino
[0.2.1]#
- 为 HF 聊天模板添加生成提示 (#15239)
llama-index-graph-stores-neo4j
[0.2.14]#
- Neo4jPropertyGraphStore.get() 检查 id 属性 (#15228)
llama-index-readers-file
[0.1.33]#
- 修复 fs.open 路径类型 (#15226)
[2024-08-08]#
llama-index-core
[0.10.63]#
- 在工作流装饰器中添加 num_workers 解决步骤并发问题 (#15210)
- Sub Question Query Engine 作为工作流笔记本示例 (#15209)
- 为工作流笔记本添加 Llamatrace (#15186)
- 在融合检索器中使用节点 hash 而非节点文本来匹配节点 (#15172)
llama-index-embeddings-mistralai
[0.1.5]#
- 处理 mistral v1.0 客户端 (#15229)
llama-index-extractors-relik
[0.1.1]#
- 修复 relik extractor 跳过错误 (#15225)
llama-index-finetuning
[0.1.11]#
- 处理 mistral v1.0 客户端 (#15229)
llama-index-graph-stores-neo4j
[0.2.14]#
- 添加 neo4j 通用节点标签 (#15191)
llama-index-llms-anthropic
[0.1.17]#
- 允许 Anthropic 消息中包含图像 (#15227)
llama-index-llms-mistralai
[0.1.20]#
- 处理 mistral v1.0 客户端 (#15229)
llama-index-packs-mixture-of-agents
[0.1.2]#
- 使用工作流更新 Mixture Of Agents llamapack (#15232)
llama-index-tools-slack
[0.1.4]#
- 修复 ToolSpec 中的 slack 客户端引用 (#15202)
[2024-08-06]#
llama-index-core
[0.10.62]#
- 功能: 允许使用 IS_EMPTY 操作符进行 None 元数据过滤 (#15167)
- 修复: 在节点解析过程中尽可能使用父源节点到节点的关联 (#15182)
- 在融合检索器中使用节点 hash 而非节点文本来匹配节点 (#15172)
llama-index-graph-stores-neo4j
[0.2.13]#
- Neo4j 属性图客户端批量处理 (#15179)
llama-index-graph-stores-neptune
[0.1.4]#
- 对 Amazon Neptune 的 PropertyGraphStore 支持 (#15126)
llama-index-llms-gemini
[0.2.0]#
- 功能: 为 Gemini 模型添加 default_headers (#15141)
llama-index-llms-openai
[0.1.28]#
- OpenAI: 支持工具参数中的新 strict 功能 (#15177)
llama-index-vector-stores-opensearch
[0.1.14]#
- 在 Opensearch 中添加对完整 MetadataFilters 的支持 (#15176)
llama-index-vector-stores-qdrant
[0.2.15]#
- 功能: 允许使用 IS_EMPTY 操作符进行 None 元数据过滤 (#15167)
llama-index-vector-stores-wordlift
[0.3.0]#
- 更新 WordLift Vector Store 以使用新的客户端包 (#15140)
[2024-08-05]#
llama-index-core
[0.10.61]#
- 工作流文档微调 (文档化
.send_event()
, 扩展示例) (#15154) - 创建上下文管理器来仪器化事件和 span 标签 (#15116)
- keyval 索引存储更新以接受自定义集合后缀 (#15134)
- 使工作流上下文能够收集同一事件的多个实例 (#15153)
- 修复 AsyncStreamingResponse 的
__str__
方法 (#15131)
llama-index-callbacks-literalai
[1.0.0]#
- 功能(集成): 添加 Literal AI 的全局处理程序 (#15064)
llama-index-extractors-relik
[0.1.0]#
- 添加 relik kg 构造器 (#15123)
llama-index-graph-stores-neo4j
[0.1.12]#
- 查询时修复 neo4j 属性图关系属性 (#15068)
llama-index-llms-fireworks
[0.1.9]#
- 功能: 为 Fireworks llm 添加 default_headers (#15150)
llama-index-llms-gemini
[0.1.12]#
- 修复: Gemini 1.0 Pro Vision 已正式弃用,将默认模型切换到 gemini-1.5-flash (#15000)
llama-index-llms-paieas
[0.1.0]#
- 为 AlibabaCloud PaiEas 添加 LLM (#14983)
llama-index-llms-predibase
[0.1.7]#
- 修复 Predibase 集成对 HuggingFace 托管的微调适配器的支持 (#15130)
[2024-02-02]#
llama-index-core
[0.10.60]#
- 更新
StartEvent
用法以允许点表示法属性访问 (#15124) - 添加 GraphRAGV2 notebook (#15119)
- 修复 DynamicLLMPathExtractor 中的 minor 错误以及默认输出解析器不工作的问题 (#15085)
- 更新工作流超时的类型 (#15102)
- 修复(sql_wrapper): 如果没有外键则不提及外键 (#14998)
llama-index-graph-stores-neo4j
[0.2.11]#
- 修复 neo4j 检索关系属性 (#15111) (#15108)
llama-index-llms-vllm
[0.1.9]#
- 更新 base.py 以使用 @atexit 进行清理 (#15047)
llama-index-vector-stores-pinecone
[0.1.9]#
- 升级 pinecone 客户端版本依赖 (#15121)
llama-index-vector-stores-redis
[0.2.1]#
- 处理 Redis 向量存储的嵌套 MetadataFilters (#15093)
llama-index-vector-stores-wordlift
[0.2.0]#
- 更新 WordLift Vector Store 以使用新的客户端包 (#15045)
[2024-07-31]#
llama-index-core
[0.10.59]#
- 引入
Workflow
用于事件驱动的编排 (#15067) - 为上下文聊天引擎添加功能,允许将先前的块插入到当前上下文窗口 (#14889)
- MLflow 集成已添加到文档 (#14977)
- 文档(literalai): 将 Literal AI 集成添加到文档中 (#15023)
- 扩展查询管道的 span 覆盖范围 (#14997)
- 使重新抛出错误在
asyncio_run()
期间跳过构造器 (#14970)
llama-index-embeddings-ollama
[0.1.3]#
- 添加适当的异步嵌入支持
llama-index-embeddings-textembed
[0.0.1]#
- 添加对 textembed embedding 的支持 (#14968)
llama-index-graph-stores-falkordb
[0.1.5]#
- FalkorDBPropertyGraphStore 的初始实现 (#14936)
llama-index-llms-azure-inference
[0.1.1]#
- 修复: Azure AI inference 集成对工具的支持 (#15044)
llama-index-llms-fireworks
[0.1.7]#
- 更新默认模型以支持函数调用 (#15046)
llama-index-llms-ollama
[0.2.2]#
- ollama 函数调用的开关 (#14972)
- 为 Ollama 添加函数调用 (#14948)
llama-index-llms-openllm
[0.2.0]#
- 更新到 OpenLLM 0.6 (#14935)
llama-index-packs-longrag
[0.1.0]#
- 添加实现 LongRAG 的 LlamaPack (#14916)
llama-index-postprocessor-tei-rerank
[0.1.0]#
- 通过 Text Embedding Interface 支持 Re-Ranker (#15063)
llama-index-readers-confluence
[0.1.7]#
- confluence reader 按权限参数优先级排序 (#14905)
llama-index-readers-file
[0.1.31]#
- UnstructuredReader 使用文件名作为 ID (#14946)
llama-index-readers-gitlab
[0.1.0]#
- 添加 GitLab reader 集成 (#15030)
llama-index-readers-google
[0.2.11]#
- 修复平均评分是 float 而非 int 的问题 (#15070)
llama-index-retrievers-bm25
[0.2.2]#
- 在 bm25 tokenize 中使用正确的词干提取器 (#14965)
llama-index-vector-stores-azureaisearch
[0.1.13]#
- 修复删除不存在索引的问题 (#14949)
llama-index-vector-stores-elasticsearch
[0.2.5]#
- 为稀疏策略禁用嵌入 (#15032)
llama-index-vector-stores-kdbai
[0.2.0]#
- 更新混合搜索的默认稀疏编码器 (#15019)
llama-index-vector-stores-milvus
[0.1.22]#
- 使用灵活的索引管理增强 MilvusVectorStore 以支持覆盖 (#15058)
llama-index-vector-stores-postgres
[0.1.13]#
- 添加选项以使用 HNSW 索引构造 PGVectorStore (#15024)
[2024-07-24]#
llama-index-core
[0.10.58]#
- 修复: Token 计数器期望 response.raw 为 dict,但得到 ChatCompletionChunk (#14937)
- 返回每个 agent 步骤的正确工具输出,而不是全部 (#14885)
- 修复异步结构化流式传输的 minor 错误 (#14925)
llama-index-llms-fireworks
[0.1.6]#
- fireworks ai llama3.1 支持 (#14914)
llama-index-multi-modal-llms-anthropic
[0.1.6]#
- 为多模态 LLM 添加 claude 3.5 sonnet (#14932)
llama-index-retrievers-bm25
[0.2.1]#
- 🐞 修复(集成): BM25Retriever 持久化缺少参数 similarity_top_k (#14933)
llama-index-retrievers-vertexai-search
[0.1.0]#
- 用于 Vertex AI Search 的 Llamaindex 检索器 (#14913)
llama-index-vector-stores-deeplake
[0.1.5]#
- 改进
deeplake.get_nodes()
性能 (#14920)
llama-index-vector-stores-elasticsearch
[0.2.3]#
- 错误修复: 使用稀疏策略时不向 elasticsearch 存储传递空嵌入列表 (#14918)
llama-index-vector-stores-lindorm
[0.1.0]#
- 添加 lindorm 的向量存储集成 (#14623)
llama-index-vector-stores-qdrant
[0.2.14]#
- 功能: 允许限制检索的元素数量 (qdrant) (#14904)
[2024-07-22]#
llama-index-core
[0.10.57]#
- 为 VectorContextRetrieve 添加可选参数 similarity_score (#14831)
- 添加属性提取 (使用属性名称和可选描述) 用于 KG (#14707)
- 能够将输出类附加到 LLMs (#14747)
- 添加工具调用/结构化提取的流式传输 (#14759)
- 修复复制/pickling 时移除私有变量的问题 (#14860)
- 修复提取管道中发送空数组到向量存储的问题 (#14859)
- 优化提取管道去重 (#14858)
- 为 VectorContextRetriever 添加可选参数 similarity_score (#14831)
llama-index-llms-azure-openai
[0.1.10]#
- 错误修复: AzureOpenAI 可能因自定义 azure_ad_token_provider 而失败 (#14869)
llama-index-llms-bedrock-converse
[0.1.5]#
- 功能: ✨ 在 BedrockConverse 中实现异步功能 (#14326)
llama-index-llms-langchain
[0.3.0]#
- 使某些依赖项成为可选
- 在集成中升级 langchain 版本 (#14879)
llama-index-llms-ollama
[0.1.6]#
- 错误修复: ollama 流式响应 (#14830)
llama-index-multi-modal-llms-anthropic
[0.1.5]#
- 对齐依赖项 (#14850)
llama-index-readers-notion
[0.1.10]#
- 更新 notion reader 以处理重复页面,database+page id (#14861)
llama-index-vector-stores-milvus
[0.1.21]#
- 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)
llama-index-vector-stores-mongodb
[0.1.8]#
- MongoDB Atlas Vector Search: 增强元数据过滤 (#14856)
llama-index-vector-stores-opensearch
[0.1.13]#
- 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)
llama-index-vector-stores-pinecone
[0.1.8]#
- 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)
llama-index-vector-stores-postgres
[0.1.12]#
- 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)
llama-index-vector-stores-weaviate
[1.0.2]#
- 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)
[2024-07-19]#
llama-index-core
[0.10.56]#
- 修复 _apply_node_postprocessors 函数需要 QueryBundle 的问题 (#14839)
- 添加仅上下文响应合成器 (#14439)
- 修复 AgentRunner AgentRunStepStartEvent 分派 (#14828)
- 改进 ReAct agent 中的输出格式系统提示 (#14814)
- 从输出解析器工具集中移除双大括号替换 (#14735)
- 更新 simple_summarize.py (#14714)
llama-index-tools-azure-code-interpreter
[0.2.0]#
- 杂项: 从环境变量读取 AZURE_POOL_MANAGEMENT_ENDPOINT (#14732)
llama-index-llms-azure-inference
[0.1.0]#
- Azure AI Inference 集成 (#14672)
llama-index-embeddings-azure-inference
[0.1.0]#
- Azure AI Inference 集成 (#14672)
llama-index-llms-bedrock-converse
[0.1.5]#
- 功能: ✨ 在 BedrockConverse 中实现异步功能 (#14326)
llama-index-embeddings-yandexgpt
[0.1.5]#
- 添加 YandexGPT Embedding Model 的新集成 (#14313)
llama-index-tools-google
[0.1.6]#
- 更新 gmailtoolspec 的 search_messages 工具的 docstring (#14840)
llama-index-postprocessor-nvidia-rerank
[0.1.5]#
- 添加对 nvidia/nv-rerankqa-mistral-4b-v3 的支持 (#14844)
llama-index-embeddings-openai
[0.1.11]#
- 修复 OpenAI Embedding 异步客户端错误 (#14835)
llama-index-embeddings-azure-openai
[0.1.11]#
- 修复 Azure OpenAI LLM 和 Embedding 异步客户端错误 (#14833)
llama-index-llms-azure-openai
[0.1.9]#
- 修复 Azure OpenAI LLM 和 Embedding 异步客户端错误 (#14833)
llama-index-multi-modal-llms-openai
[0.1.8]#
- 添加对 gpt-4o-mini 的支持 (#14820)
llama-index-llms-openai
[0.1.26]#
- 添加对 gpt-4o-mini 的支持 (#14820)
llama-index-llms-mistralai
[0.1.18]#
- 添加对 mistralai nemo 模型的支持 (#14819)
llama-index-graph-stores-neo4j
[0.2.8]#
- 修复在 neo4j 属性图中使用 sanitize 时的错误 (#14812)
- 在 neo4j 的 get_triples 中添加过滤器 (#14811)
llama-index-vector-stores-azureaisearch
[0.1.12]#
- 功能: 为 azureaisearch 添加嵌套过滤器 (#14795)
llama-index-vector-stores-qdrant
[0.2.13]#
- 功能: 为 Qdrant 向量存储添加 NOT IN 过滤器 (#14791)
llama-index-vector-stores-azureaisearch
[0.1.11]#
- 功能: 添加 azureaisearch 支持的条件 (#14787)
- 功能: azureaisearch 支持集合字符串 (#14712)
llama-index-tools-weather
[0.1.4]#
- 修复 OpenWeatherMapToolSpec.forecast_tommorrow_at_location (#14745)
llama-index-readers-microsoft-sharepoint
[0.2.6]#
- 跟随 odata.nextLink (#14708)
llama-index-vector-stores-qdrant
[0.2.12]#
- 为 QdrantVectorStore 添加 Quantization 选项 (#14740)
llama-index-vector-stores-azureaisearch
[0.1.10]#
- 功能: 改进 azureai search 删除功能 (#14693)
llama-index-agent-openai
[0.2.9]#
- 修复: openai api 中的附件需要工具 (#14609)
llama-index-readers-box
[0.1.0]#
- 新集成
llama-index-embeddings-fastembed
[0.1.6]#
- 修复 fastembed python 版本 (#14710)
[2024-07-11]#
llama-index-core
[0.10.55]#
- 各种文档更新
llama-index-llms-cleanlab
[0.1.1]#
- 为 Cleanlab LLM 集成添加用户配置 (#14676)
llama-index-readers-file
[0.1.30]#
- 并发 pptx 读取器在单个临时文件名上的竞争 (#14686)
llama-index-tools-exa
[0.1.4]#
- Exa search tool 入门和示例笔记本的更改 (#14690)
[2024-07-10]#
llama-index-core
[0.10.54]#
- 修复: 更新 simple vector store filter 的操作符逻辑 (#14674)
- 添加 AgentOps 集成 (#13935)
llama-index-embeddings-fastembed
[0.1.5]#
- 杂项: 更新 Qdrant fastembed 包中所需的 python 版本 (#14677)
llama-index-embeddings-huggingface-optimum-intel
[0.1.6]#
- 升级 llama-index-embeddings-huggingface-optimum-intel 版本 (#14670)
llama-index-vector-stores-elasticsearch
[0.2.2]#
- 添加对自定义索引设置的支持 (#14655)
llama-index-callbacks-agentops
[0.1.0]#
- 初始发布
llama-index-indices-managed-vertexai
[0.0.2]#
- 修复 #14637 Llamaindex managed Vertex AI 索引需要更新 (#14641)
llama-index-readers-file
[0.1.29]#
- 修复 simple file reader 中非结构化导入问题 (#14642)
[2024-07-08]#
llama-index-core
[0.10.53]#
- 修复 llama-agents 中
llm.predict_and_call
处理 react 用法的问题 (#14556) - 在
ReActAgent
调用super().__init__
时添加缺失的verbose
参数 (#14565) - 修复使用 IngestionPipeline parallel 时
llama-index-core\llama_index\core\node_parser\text\utils.py
错误 (#14560) - 废弃
KnowledgeGraphIndex
,调整文档 (#14575) - 修复
ChatSummaryMemoryBuffer
无法摘要包含工具调用的聊天记录问题 (#14563) - 添加
DynamicLLMPathExtractor
用于动态通过 LLM 推断 schema 的实体检测 (#14566) - 添加云文档转换器 (#14608)
- 修复 KnowledgeGraphIndex 参数 'kg_triple_extract_template' 拼写错误 (#14619)
- 修复:由于 unstructured 更改,更新
UnstructuredElementNodeParser
(#14606) - 更新 ReAct Step 解决生成不完整问题 (#14587)
llama-index-callbacks-promptlayer
[0.1.3]#
- 请求成功时才记录日志到 promptlayer (#14632)
llama-index-embeddings-databricks
[0.1.0]#
- 添加 embeddings databricks 集成 (#14590)
llama-index-llms-ai21
[0.3.1]#
- 修复 AI21 包中从错误包导入 MessageRole 问题 (#14596)
llama-index-llms-bedrock
[0.1.12]#
- 处理 Bedrock AnthropicProvider 中的空响应 (#14479)
- 向 Bedrock InvokeAPI 添加 claude 3.5 sonnet 支持 (#14594)
llama-index-llms-bedrock-converse
[0.1.4]#
- 修复 Bedrock Converse 的工具使用块在有多个连续函数调用时的问题 (#14386)
llama-index-llms-optimum-intel
[0.1.0]#
- 向 llama-index-integration 添加 optimum intel 和 ipex backend (#14553)
llama-index-llms-qianfan
[0.1.0]#
- 添加 baidu-qianfan llm (#14414)
llama-index-llms-text-generation-inference
[0.1.4]#
- 修复:模型名称查找中 LLMMetadata 崩溃 (#14569)
- 从 text-embeddings-inference 中移除 hf embeddings 依赖 (#14592)
llama-index-llms-yi
[0.1.1]#
- 更新 yi llm context_window (#14578)
llama-index-readers-file
[0.1.28]#
- 向 PandasExcelReader.load_data 添加 fs 参数 (#14554)
- UnstructuredReader 增强功能 (#14390)
llama-index-readers-web
[0.1.22]#
- nit: firecrawl 修复创建文档问题 (#14579)
llama-index-retrievers-bm25
[0.2.0]#
- 更新 BM25Retriever 以使用更新(和更快)的 bm25s 库 #(14581)
llama-index-vector-stores-qdrant
[0.2.11]#
- 重构:不要吞掉 Qdrant collection_exists 的异常 (#14564)
- 添加对 qdrant bm42 的支持,设置稀疏 + 稠密配置 (#14577)
[2024-07-03]#
llama-index-core
[0.10.52]#
- 修复 windows 上文件读取器路径错误 (#14537)
- 因父类更改,跟进 colbert index 中的 kwargs 传播 (#14522)
- 废弃 query pipeline agent,转而使用 FnAgentWorker (#14525O)
llama-index-callbacks-arize-phoenix
[0.1.6]#
- 支持最新版本的 arize #14526
llama-index-embeddings-litellm
[0.1.0]#
- 添加对 LiteLLM Proxy Server 的支持,用于 embeddings (#14523)
llama-index-finetuning
[0.1.10]#
- 从 sentence_transformers 添加设备选择 (#14546)
llama-index-graph-stores-neo4
[0.2.7]#
- 修复向量查询返回节点的顺序问题 (#14461)
llama-index-llms-bedrock
[0.1.10]#
- 处理 Bedrock AnthropicProvider 中的空响应 (#14479)
llama-index-llms-bedrock-converse
[0.1.4]#
- 修复 Bedrock Converse 的 join_two_dicts 函数在添加新字符串 kwarg 时的问题 (#14548)
llama-index-llms-upstage
[0.1.4]#
- 添加 upstage tokenizer 和 token 计数方法 (#14502)
llama-index-readers-azstorage-blob
[0.1.7]#
- 修复获取 blob 对象名称的 bug (#14547)
llama-index-readers-file
[0.1.26]#
- Pandas excel reader 加载数据修复以追加文档 (#14501)
llama-index-readers-iceberg
[0.1.0]#
- 向 LLamaIndex 添加 Iceberg Reader 集成 (#14477)
llama-index-readers-notion
[0.1.8]#
- 添加重试功能 (#14488)
- 添加
list_databases
方法 (#14488)
llama-index-readers-slack
[0.1.5]#
- 增强 SlackReader 以从频道名称/模式获取频道 ID (#14429)
llama-index-readers-web
[0.1.21]#
- 向 firecrawl reader 添加 API url (#14452)
llama-index-retrievers-bm25
[0.1.5]#
- 修复 BM25 retriever 返回节点中的分数问题 (#14495)
llama-index-vector-stores-azureaisearch
[0.1.9]#
- 向 azure ai search 添加 async 方法 (#14496)
llama-index-vector-stores-kdbai
[0.1.8]#
- Kdbai rest 兼容 (#14511)
llama-index-vector-stores-mongodb
[0.1.6]#
- 向 MongoDBAtlasVectorSearch 添加混合搜索和全文搜索 (#14490)
[2024-06-28]#
llama-index-core
[0.10.51]#
- 修复带有函数调用的 llm 和空工具调用问题 (#14453)
- 修复 ChatMessage 在 query pipeline 中未被视为可字符串化的问题 (#14378)
- 更新 schema llm path extractor 以接受有效的 triple 列表 (#14357)
- 在
build_index_from_nodes
时传递 kwargs (#14341)
llama-index-agent-dashscope
[0.1.0]#
- 添加阿里云 dashscope agent (#14318)
llama-index-graph-stores-neo4j
[0.2.6]#
- 向 neo4j_property_graph 添加 MetadataFilters (#14362)
llama-index-llms-nvidia
[0.1.4]#
- 添加已知托管模型的 context lengths (#14436)
llama-index-llms-perplexity
[0.1.4]#
- 更新可用模型 (#14409)
llama-index-llms-predibase
[0.1.6]#
- 改进无效 API token 的错误处理 (#14440)
llama-index-llms-yi
[0.1.0]#
- 集成 Yi 模型 (#14353)
llama-index-readers-google
[0.2.9]#
- 为 Google Chat 创建数据加载器 (#14397)
llama-index-readers-s3
[0.1.10]#
- 在 S3Reader 中使 s3fs 缓存无效 (#14441)
llama-index-readers-structured-data
[0.1.0]#
- 为 StructuredDataReader 添加 xlsx, csv, json 和 jsonl 支持 (#14369)
llama-index-tools-jina
[0.1.0]#
- 集成名为 jina search 的新工具 (#14317)
llama-index-vector-stores-astradb
[0.1.8]#
- 更新 Astra DB vector store 以使用现代 astrapy 库 (#14407)
llama-index-vector-stores-chromadb
[0.1.10]#
- 修复 chroma get 中 ids 的索引访问问题 (#14434)
llama-index-vector-stores-deeplake
[0.1.4]#
- 在 deeplake vector store 中实现 delete_nodes() 和 clear() (#14457)
- 在 deeplake vector store 中实现 get_nodes() (#14388)
llama-index-vector-stores-elasticsearch
[0.2.1]#
- 在 Elasticsearch 索引创建中添加对动态 metadata 字段的支持 (#14431)
llama-index-vector-stores-kdbai
[0.1.7]#
- Kdbai 版本兼容 (#14402)
[2024-06-24]#
llama-index-core
[0.10.50]#
- 为自定义 agent 添加了极其简单的
FnAgentWorker
(#14329) - 在 build_index_from_nodes 时传递 kwargs (#14341)
- 使 async utils 在嵌套 async 时更健壮 (#14356)
llama-index-llms-upstage
[0.1.3]#
- 每个 llm 都是一个聊天模型 (#14334)
llama-index-packs-rag-evaluator
[0.1.5]#
- 在 RAG 评估包中添加运行本地 embedding 模型的功能 (#14352)
[2024-06-23]#
llama-index-core
[0.10.49]#
- 改进
llama-cloud
和客户端依赖项 (#14254)
llama-index-indices-managed-llama-cloud
[0.2.1]#
- 改进
LlamaCloudIndex
中的接口和客户端交互 (#14254)
llama-index-llms-bedrock-converse
[0.1.3]#
- 将 claude sonnet 3.5 添加到 bedrock converse (#14306)
llama-index-llms-upstage
[0.1.2]#
- 设置默认上下文大小 (#14293)
- 在 upstage llm 和 embeddings 上添加 api_key 别名 (#14233)
llama-index-storage-kvstore-azure
[0.1.2]#
- 优化插入操作 (#14321)
llama-index-utils-azure
[0.1.1]#
- azure_table_storage 参数 bug (#14182)
llama-index-vector-stores-neo4jvector
[0.1.6]#
- 添加 neo4j 客户端方法 (#14314)
[2024-06-21]#
llama-index-core
[0.10.48]#
- 提高平均精度效率 (#14260)
- 添加 crewai + llamaindex cookbook (#14266)
- 向 TextNode 添加 mimetype 字段 (#14279)
- 改进 IBM watsonx.ai 文档 (#14271)
- 更新文档首页,添加 agents 指南等 (#14089)
llama-index-llms-anthropic
[0.1.14]#
- 添加对 claude 3.5 的支持 (#14277)
llama-index-llms-bedrock-converse
[0.1.4]#
- 实现用于函数调用的 Bedrock Converse API (#14055)
[2024-06-19]#
llama-index-core
[0.10.47]#
- 添加平均精度作为检索指标 (#14189)
- 添加
.show_jupyter_graph()
方法在 jupyter notebook 中可视化默认简单 graph_store (#14104) - 更正 nltk 文件查找行为 (#14040)
- 向 generate_qa_pairs 添加 helper 参数 (#14054)
- 添加新的分块语义分块方法:双通道合并 (#13629)
- 启用查询管道的分步执行 (#14117)
- 通过仅拒绝 8.4.0 来替换 tenacity 上限 (#14218)
- 在
llm.predict_and_call()
中传播 error_on_no_tool_call kwarg (#14253) - 在 query pipeline 中,避免将节点转换为字符串,而是使用
get_content()
(#14242) - 修复 NLSQLTableQueryEngine 响应 metadata (#14169)
- 不要覆盖默认简单属性图中的关系 (#14244)
llama-index-embeddings-ipex-llm
[0.1.5]#
- 启用为 ipex embedding 集成选择 Intel GPU (#14214)
llama-index-embeddings-mixedbreadai
[0.1.0]#
- 添加 mixedbread ai 集成 (#14161)
llama-index-graph-stores-neo4j
[0.2.5]#
- 向 neo4j upsert relations 添加默认节点属性 (#14095)
llama-index-indices-managed-postgresml
[0.3.0]#
- 向 PostgresML Managed Index 添加重新排序 (#14134)
llama-index-llms-ai21
[0.3.0]#
- 为 async 方法使用 async AI21 client (#14193)
llama-index-llms-bedrock-converse
[0.1.2]#
- 添加了(假的)async 调用以避免错误 (#14241)
llama-index-llms-deepinfra
[0.1.3]#
- 向 deep infra llm 添加函数调用 (#14127)
llama-index-llms-ipex-llm
[0.1.8]#
- 启用为 ipex embedding 集成选择 Intel GPU (#14214)
llama-index-llms-oci-genai
[0.1.1]#
- 添加 oci genai 的 command r 支持 (#14080)
llama-index-llms-premai
[0.1.7]#
- Prem AI Templates Llama Index 支持 (#14105)
llama-index-llms-you
[0.1.0]#
- 集成 You.com 对话式 API (#14207)
llama-index-readers-mongodb
[0.1.8]#
- 向 SimpleMongoReader 添加 metadata 字段 "collection_name" (#14245)
llama-index-readers-pdf-marker
[0.1.0]#
- 添加 marker-pdf reader (#14099)
llama-index-readers-upstage
[0.1.0]#
- 添加 upstage 作为 reader (#13415)
llama-index-postprocessor-mixedbreadai-rerank
[0.1.0]#
- 添加 mixedbread ai 集成 (#14161)
llama-index-vector-stores-lancedb
[0.1.6]#
- LanceDB:代码清理,小更新 (#14077)
llama-index-vector-stores-opensearch
[0.1.12]#
- 添加自定义默认 OpenSearch Client 和 Engine 的选项 (#14249)
[2024-06-17]#
llama-index-core
[0.10.46]#
- 修复核心模块中的 Pin tenacity 和 numpy 问题 (#14203)
- 添加精度和召回指标 (#14170)
- 为 Vertex AI 启用函数调用和 agent runner (#14088)
- 修复 batch_gather 问题 (#14162)
llama-index-utils-huggingface
[0.1.1]#
- 从 HuggingFace utils 包中移除 sentence-transformers 依赖项 (#14204)
llama-index-finetuning
[0.1.8]#
- 添加 MistralAI Finetuning API 支持 (#14101)
llama-index-llms-mistralai
[0.1.16]#
- 更新 MistralAI (#14199)
llama-index-llms-bedrock-converse
[0.1.0]#
- 修复:🐛 修复 Bedrock Converse 的 pyproject.toml 以用于 PyPI 发布 (#14197)
llama-index-utils-azure
[0.1.1]#
- 使用典型的包含 llama_index/ (#14196)
- Feature/azure_table_storage (#14182)
llama-index-embeddings-nvidia
[0.1.4]#
- 添加对 nvidia/nv-embed-v1 的支持 (https://hugging-face.cn/nvidia/NV-Embed-v1) (#14194)
llama-index-retrievers-you
[0.1.3]#
- 添加新闻 retriever (#13934)
llama-index-storage-kvstore-azure
[0.1.1]#
- 修复了缺少 await 的 bug (#14177)
llama-index-embeddings-nomic
[0.4.0post1]#
- 恢复 Nomic Embed einops 依赖项 (#14176)
llama-index-retrievers-bm25
[0.1.4]#
- 更改 BM25Retriever _retrieve 以使用 numpy 方法 (#14015)
llama-index-llms-gemini
[0.1.11]#
- 向 Gemini.stream_chat 添加缺失的 @llm_chat_callback() (#14166)
llama-index-llms-vertex
[0.2.0]#
- 为 Vertex AI 启用函数调用和 agent runner (#14088)
llama-index-vector-stores-opensearch
[0.1.11]#
- feat: 在 OpenSearch VectorStore 上支持 VectorStoreQueryMode.TEXT_SEARCH (#14153)
[2024-06-14]#
llama-index-core
[0.10.45]#
- 修复解析 sql query.py 问题 (#14109)
- 实现 NDCG 指标 (#14100)
- 修复 Structured Generation 的系统提示词 (#14026)
- 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)
- 添加 PandasExcelReader 类用于解析 excel 文件 (#13991)
- feat: 向 ingestion pipeline 添加 spans (#14062)
llama-index-vector-stores-qdrant
[0.2.10]#
- 修复 Qdrant 节点问题 (#14149)
llama-index-readers-mongodb
[0.1.7]#
- 修复 TypeError: sequence item : expected str instance, int found
llama-index-indices-managed-vertexai
[0.0.1]#
- feat: 为 Vertex AI 上的 LlamaIndex RAG 添加 Managed Index (#13626)
llama-index-llms-oci-genai
[0.1.1]#
- Feature/add command r support oci genai (#14080)
llama-index-vector-stores-milvus
[0.1.20]#
- MilvusVectorStore:始终将 text_key 包含在 output_fields 中 (#14076)
llama-index-packs-mixture-of-agents
[0.1.0]#
- 添加 Mixture Of Agents 论文实现 (#14112)
llama-index-llms-text-generation-inference
[0.1.0]#
- 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)
llama-index-llms-huggingface-api
[0.1.0]#
- 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)
llama-index-embeddings-huggingface-api
[0.1.0]#
- 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)
llama-index-utils-huggingface
[0.1.0]#
- 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)
llama-index-llms-watsonx
[0.1.8]#
- Feat: IBM watsonx.ai llm 和 embeddings 集成 (#13600)
llama-index-llms-ibm
[0.1.0]#
- Feat: IBM watsonx.ai llm 和 embeddings 集成 (#13600)
llama-index-embeddings-ibm
[0.1.0]#
- Feat: IBM watsonx.ai llm 和 embeddings 集成 (#13600)
llama-index-vector-stores-milvus
[0.1.19]#
- 修复 milvus filter enum 解析问题 (#14111)
llama-index-llms-anthropic
[0.1.13]#
- 修复 anthropic llm 调用问题 (#14108)
llama-index-storage-index-store-postgres
[0.1.4]#
- 使用了错误的 mongo 名称而不是 Postgres (#14107)
llama-index-embeddings-bedrock
[0.2.1]#
- 移除 Bedrock embedding 中不必要的 excluded from fields (#14085)
llama-index-finetuning
[0.1.7]#
- Feature/added trust remote code (#14102)
llama-index-readers-file
[0.1.25]#
- nit: pandas excel reader 修复 (#14086)
llama-index-llms-anthropic
[0.1.12]#
- 更新 anthropic 依赖项至最低版本 0.26.2 (#14091)
llama-index-llms-llama-cpp
[0.1.4]#
- 添加对 Llama 3 Instruct prompt 格式的支持 (#14072)
llama-index-llms-bedrock-converse
[0.1.8]#
- 实现用于函数调用的 Bedrock Converse API (#14055)
llama-index-vector-stores-postgres
[0.1.11]#
- fix/postgres-metadata-in-filter-single-elem (#14035)
llama-index-readers-file
[0.1.24]#
- 添加 PandasExcelReader 类用于解析 excel 文件 (#13991)
llama-index-embeddings-ipex-llm
[0.1.4]#
- 更新 llama-index-embeddings-ipex-llm 依赖项
llama-index-embeddings-gemini
[0.1.8]#
- 在 Gemini Embedding 中添加 api key 作为字段 (#14061)
llama-index-vector-stores-milvus
[0.1.18]#
- 扩展 milvus vector store filter 选项 (#13961)
[2024-06-10]#
llama-index-core
[0.10.44]#
- 向 SimpleDirectoryReader 支持的图像类型添加 WEBP 和 GIF (#14038)
- 重构:通过 mixin 向 abstractmethods 添加 spans (#14003)
- 为 SQLAutoVectorQueryEngine 添加流式处理支持 (#13947)
- 添加选项指定 embed_model 到 NLSQLTableQueryEngine (#14006)
- 为 multimodal LLMs 添加 spans (#13966)
- 在 auto prev next 中更改为 compact (#13940)
- feat: 为流式传输错误添加异常事件 (#13917)
- feat: 为工具添加 spans (#13916)
llama-index-embeddings-azure-openai
[0.1.10]#
- 修复未使用 API key 时使用 azure_ad 导致的错误 (#13970)
llama-index-embeddings-jinaai
[0.2.0]#
- 添加 Jina Embeddings MultiModal (#13861)
llama-index-embeddings-nomic
[0.3.0]#
- 添加 Nomic multi modal embeddings (#13920)
llama-index-graph-stores-neo4j
[0.2.3]#
- 确保 cypher 在迭代前返回列表 (#13938)
llama-index-llms-ai21
[0.2.0]#
- 添加 AI21 Labs Jamba-Instruct 支持 (#14030)
llama-index-llms-deepinfra
[0.1.2]#
- fix(deepinfrallm): default max_tokens (#13998)
llama-index-llms-vllm
[0.1.8]#
- 更正
__del__()
Vllm (#14053)
llama-index-packs-zenguard
[0.1.0]#
- 添加 ZenGuard llamapack (#13959)
llama-index-readers-google
[0.2.7]#
- 修复 google drive reader 中类属性设置方式 (#14022)
- 添加 Google Maps Text Search Reader (#13884)
llama-index-readers-jira
[0.1.4]#
- Jira 个人访问令牌支持托管实例 (#13890)
llama-index-readers-mongodb
[0.1.6]#
- 加载时设置文档 ids (#14000)
llama-index-retrievers-duckdb-retriever
[0.1.0]#
- 添加 DuckDBRetriever (#13929)
llama-index-vector-stores-chroma
[0.1.9]#
- 向 chromadb 添加 inclusion filter (#14010)
llama-index-vector-stores-lancedb
[0.1.5]#
- 修复 LanceDBVectorStore
add()
逻辑 (#13993)
llama-index-vector-stores-milvus
[0.1.17]#
- 支持 Milvus vector store 的所有 filter 运算符 (#13745)
llama-index-vector-stores-postgres
[0.1.10]#
- 扩大 llama-index-vector-stores-postgres 中对 SQLAlchemy 的支持到 1.4+ (#13936)
llama-index-vector-stores-qdrant
[0.2.9]#
- Qdrant:为
doc_id
创建 payload 索引 (#14001)
[2024-06-02]#
llama-index-core
[0.10.43]#
- 在 property graph index vector stores 中尽可能使用默认 UUIDs (#13886)
- 避免 property graph index 中插入空或重复内容 (#13891)
- 修复 simple property graph store 中
get_rel_map
的 cur depth 问题 (#13888) - (临时补丁) 禁用日志生成器的 instrumentation (#13901)
- 向 Dispatcher.get_dispatch_event() 方法添加向后兼容性 (#13895)
- 修复:StructuredPlannerAgent 中 acreate_plan 的名称不正确 (#13879)
llama-index-graph-stores-neo4j
[0.2.2]#
- 处理 type 缺失的情况 (neo4j property graph) (#13875)
- 将
Neo4jPGStore
重命名为Neo4jPropertyGraphStore
(兼容旧版本) (#13891)
llama-index-llms-openai
[0.1.22]#
- 改进 OpenAI 的重试机制 (#13878)
llama-index-readers-web
[0.1.18]#
- AsyncWebPageReader:使其真正异步;之前表现出阻塞行为 (#13897)
llama-index-vector-stores-opensearch
[0.1.10]#
- Fix/OpenSearch filter logic (#13804)
[2024-05-31]#
llama-index-core
[0.10.42]#
- 允许在 property graph index 中正确设置 vector store (#13816)
- 修复 langchain bridge 中的导入问题 (#13871)
llama-index-graph-stores-nebula
[0.2.0]#
- NebulaGraph 支持 PropertyGraphStore (#13816)
llama-index-llms-langchain
[0.1.5]#
- 修复 langchain llm 中的 fireworks 导入问题 (#13871)
llama-index-llms-openllm
[0.1.5]#
- feat(openllm): 0.5 sdk 集成更新 (#13848)
llama-index-llms-premai
[0.1.5]#
- 更新 SDK 兼容性 (#13836)
llama-index-readers-google
[0.2.6]#
- 修复 GoogleDriveReader 中 token 导致无限循环的 bug (#13863)
[2024-05-30]#
llama-index-core
[0.10.41]#
- 从 index 传递 embeddings 到 property graph retriever (#13843)
- 保护 instrumentation event/span handler 之间不受影响 (#13823)
- 为 completion streaming 添加缺失的事件 (#13824)
- 发生异常时缺失 callback_manager.on_event_end (#13825)
llama-index-llms-gemini
[0.1.10]#
- 为 gemini 使用
model
kwarg 指定模型名称 (#13791)
llama-index-llms-mistralai
[0.1.15]#
- 添加 mistral code model (#13807)
- 更新 mistral codestral 支持 fill in middle endpoint (#13810)
llama-index-llms-openllm
[0.1.5]#
- 0.5 集成更新 (#13848)
llama-index-llms-vertex
[0.1.8]#
- Vertex Integration 的 Pydantic Error 安全设置 (#13817)
llama-index-readers-smart-pdf-loader
[0.1.5]#
- 处理 smart pdf reader 中的 path objects (#13847)
[2024-05-28]#
llama-index-core
[0.10.40]#
- 添加了
PropertyGraphIndex
和其他支持的抽象。详情请参见完整指南 (#13747) - 更新了
AutoPrevNextNodePostprocessor
以允许传入响应模式和 LLM (#13771) - 修复 return direct 的类型处理问题 (#13776)
- 更正 retrieval evaluator 中方法名称为
_aget_retrieved_ids_and_texts
(#13765) - 修复:QueryTransformComponent 错误调用
self._query_transform
(#13756) - 为
SimpleVectorStoreIndex
实现更多 filters (#13365)
llama-index-embeddings-bedrock
[0.2.0]#
- 添加对 Bedrock Titan Embeddings v2 的支持 (#13580)
llama-index-embeddings-oci-genai
[0.1.0]#
- 添加 Oracle Cloud Infrastructure (OCI) Generative AI (#13631)
llama-index-embeddings-huggingface
[0.2.1]#
- 从 AutoModel 暴露 "safe_serialization" 参数 (#11939)
llama-index-graph-stores-neo4j
[0.2.0]#
- 添加了用于 property graph 支持的
Neo4jPGStore
(#13747)
llama-index-indices-managed-dashscope
[0.1.1]#
- 添加了 dashscope managed index (#13378)
llama-index-llms-oci-genai
[0.1.0]#
- 添加 Oracle Cloud Infrastructure (OCI) Generative AI (#13631)
llama-index-readers-feishu-wiki
[0.1.1]#
- 修复未定义变量问题 (#13768)
llama-index-packs-secgpt
[0.1.0]#
- SecGPT - LlamaIndex 集成 #13127
llama-index-vector-stores-hologres
[0.1.0]#
- 添加 Hologres vector db (#13619)
llama-index-vector-stores-milvus
[0.1.16]#
- 移除 Milvus 对 FlagEmbedding 的依赖 (#13767) 统一 collection 构造,无论 enable_sparse 值如何 (#13773)
llama-index-vector-stores-opensearch
[0.1.9]#
- 重构:将 helper 方法放入类定义内 (#13749)
[2024-05-24]#
llama-index-core
[0.10.39]#
- 添加 VectorMemory 和 SimpleComposableMemory (#13352)
- 改进 MarkdownReader 以忽略代码块中的 headers (#13694)
- 适当的 async element node parsers (#13698)
- 在 function calling worker 中仅返回消息内容 (#13677)
- nit: 修复 multimodal query engine 使用 metadata 的问题 (#13712)
- 添加 notebook 解决工具描述过长和 QueryPlanTool 问题 (#13701)
llama-index-embeddings-ipex-llm
[0.1.2]#
- 改进设备选择 (#13644)
llama-index-indices-managed-postgresml
[0.1.3]#
- 添加 PostgresML Managed Index (#13623)
llama-index-indices-managed-vectara
[0.1.4]#
- 添加了聊天引擎、流式传输、事实一致性分数等 (#13639)
llama-index-llms-deepinfra
[0.0.1]#
- 添加 DeepInfra LLM Models 集成 (#13652)
llama-index-llm-ipex-llm
[0.1.3]#
- 为 llama-index-llm-ipex-llm 添加 GPU 支持 (#13691)
llama-index-llms-lmstudio
[0.1.0]#
- lmstudio 集成 (#13557)
llama-index-llms-ollama
[0.1.5]#
- 在 ollama 集成中使用 aiter_lines 函数迭代行 (#13699)
llama-index-llms-vertex
[0.1.6]#
- 为 gemini 添加 safety_settings 参数 (#13568)
llama-index-postprocessor-voyageai-rerank
[0.1.3]#
- VoyageAI 重新排序 bug 修复 (#13622)
llama-index-retrievers-mongodb-atlas-bm25-retriever
[0.1.4]#
- 添加缺失的 return (#13720)
llama-index-readers-web
[0.1.17]#
- 添加 Scrapfly Web Loader (#13654)
llama-index-vector-stores-postgres
[0.1.9]#
- 修复 delete 和特殊字符的 bug (#13651)
llama-index-vector-stores-supabase
[0.1.5]#
- 在 ._client 属性不存在时尝试捕获 (#13681)
[2024-05-21]#
llama-index-core
[0.10.38]#
- 在 BaseSQLTableQueryEngine 中启用流式处理 (#13599)
- 修复 relational node parsers 中的 nonetype 错误 (#13615)
- feat(instrumentation): 为所有 llms 添加新的 spans (#13565)
- 正确限制生成的问题数量 (#13596)
- 在 element Node Parsers 中传递 'exclude_llm_metadata_keys' 和 'exclude_embed_metadata_keys' (#13567)
- 向 QueryPipeline 添加批处理模式 (#13203)
- 改进 SentenceEmbeddingOptimizer 以遵守 Settings.embed_model (#13514)
- ReAct output parser 健壮性更改 (#13459)
- 修复带有单个参数的 pydantic 工具调用问题 (#13522)
- 避免 stream chat 未 yield 时的意外错误 (#13422)
llama-index-embeddings-nomic
[0.2.0]#
- 实现带有 inference_mode 参数的本地 Nomic Embed (#13607)
llama-index-embeddings-nvidia
[0.1.3]#
- 废弃
mode()
,转而使用__init__(base_url=...)
(#13572) - 添加 snowflake/arctic-embed-l 支持 (#13555)
llama-index-embeddings-openai
[0.1.10]#
- 更新 openai 的重试触发方式 (#13608)
llama-index-embeddings-upstage
[0.1.0]#
- 集成:upstage LLM 和 Embeddings (#13193)
llama-index-llms-gemini
[0.1.8]#
- feat: 为 multimodal LLM 和常规 LLM 添加 gemini 新模型 (#13539)
llama-index-llms-groq
[0.1.4]#
- 修复:启用工具使用 (#13566)
llama-index-llms-lmstudio
[0.1.0]#
- 添加对 lmstudio 集成的支持 (#13557)
llama-index-llms-nvidia
[0.1.3]#
- 废弃
mode()
,转而使用__init__(base_url=...)
(#13572)
llama-index-llms-openai
[0.1.20]#
- 更新 openai 的重试触发方式 (#13608)
llama-index-llms-unify
[0.1.0]#
- 添加 Unify LLM 支持 (#12921)
llama-index-llms-upstage
[0.1.0]#
- 集成:upstage LLM 和 Embeddings (#13193)
llama-index-llms-vertex
[0.1.6]#
- 添加对 MedLM 模型支持 (#11911)
llama_index.postprocessor.dashscope_rerank
[0.1.0]#
- 为 postprocessor 添加 dashscope rerank (#13353)
llama-index-postprocessor-nvidia-rerank
[0.1.2]#
- 废弃
mode()
,转而使用__init__(base_url=...)
(#13572)
llama-index-readers-mongodb
[0.1.5]#
- SimpleMongoReader 应允许 metadata 中的可选字段 (#13575)
llama-index-readers-papers
[0.1.5]#
- 修复:(ArxivReader) 从隐藏目录读取数据时将 exclude_hidden 设置为 False (#13578)
llama-index-readers-sec-filings
[0.1.5]#
- 修复:向 sec.gov 发出请求时的 sec_filings header 问题 #13548
llama-index-readers-web
[0.1.16]#
- 添加了 firecrawl search 模式 (#13560)
- 更新了 Browserbase web reader (#13535)
llama-index-tools-cassandra
[0.1.0]#
- 为 agents 添加了 Cassandra 数据库工具规范 (#13423)
llama-index-vector-stores-azureaisearch
[0.1.7]#
- 允许在没有非空 metadata 字段的情况下查询 AzureAISearch (#13531)
llama-index-vector-stores-elasticsearch
[0.2.0]#
- 集成 Elasticsearch client 的 VectorStore (#13291)
llama-index-vector-stores-milvus
[0.1.14]#
- 修复 Milvus vector store 的 filter expression 构建问题 (#13591)
llama-index-vector-stores-supabase
[0.1.4]#
- 删除时断开连接 (#13611)
llama-index-vector-stores-wordlift
[0.1.0]#
- 添加了 WordLift Vector Store (#13028)
[2024-05-14]#
llama-index-core
[0.10.37]#
- 在调用时为
MultiModalLLMCompletionProgram
添加 image_documents (#13467) - 通过从 threading 切换到 asyncio 修复 RuntimeError (#13486)
- 添加对 prompt kwarg 的支持 (#13405)
- VectorStore -> BasePydanticVectorStore (#13439)
- 修复:user_message 不存在 bug (#13432)
- 导入缺失的 response type (#13382)
- 向
MultiModalLLM
添加CallbackManager
(#13400)
llama-index-llms-bedrock
[0.1.8]#
- 从 Bedrock Cohere invoke model request 中移除 "Truncate" 参数 (#13442)
llama-index-readers-web
[0.1.14]#
- Trafilatura kwargs 和 trafilatura web reader 的进度条 (#13454)
llama-index-vector-stores-postgres
[0.1.8]#
- 修复 #9522 - 使用混合搜索时 SQLAlchemy 警告 (#13476)
llama-index-vector-stores-lantern
[0.1.4]#
- 修复 #9522 - 使用混合搜索时 SQLAlchemy 警告 (#13476)
维护更新以跟上 lantern 构建版本 (#13116)
- 更新 UpTrain Callback Handler 以支持新的 Upgratin eval schema (#13479)
llama-index-vector-stores-zep
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-vearch
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-upstash
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-typesense
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-timescalerevector
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-tencentvectordb
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-tair
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-singlestoredb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-rocksetdb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-neptune
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-neo4jvector
[0.1.5]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-myscale
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-metal
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-jaguar
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-epsilla
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-dynamodb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-dashvector
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-chatgpt-plugin
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-baiduvectordb
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-bagel
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-awsdocdb
[0.1.5]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-awadb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-alibabacloud-opensearch
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-wordlift
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-guru
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-pebblo
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-postprocessor-voyageai-rerank
[0.1.2]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-sbert-rerank
[0.1.4]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-rankllm-rerank
[0.1.3]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-rankgpt-rerank
[0.1.4]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-openvino-rerank
[0.1.3]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-nvidia-rerank
[0.1.1]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-jinaai-rerank
[0.1.3]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-flag-embedding-rerank
[0.1.3]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-colbert-rerank
[0.1.2]#
- 提升 rerank 版本 (#13465)
llama-index-postprocessor-cohere-rerank
[0.1.6]#
- 提升 rerank 版本 (#13465)
llama-index-multi-modal-llms-openai
[0.1.6]#
- 支持 gpt-4o (#13463)
llama-index-llms-openai
[0.1.19]#
- 支持 gpt-4o (#13463)
llama-index-packs-rag-fusion-query-pipeline
[0.1.4]#
- 修复 RAG fusion pipeline (#13413)
llama-index-agent-openai
[0.2.5]#
- 修复:更新 OpenAIAssistantAgent 以使用 attachments (#13341)
llama-index-embeddings-deepinfra
[0.1.0]#
- 新的 embeddings 集成 (#13323)
llama-index-llms-mlx
[0.1.0]#
- 新的 llm 集成 (#13231)
llama-index-vector-stores-milvus
[0.1.12]#
- 修复:更正 connections.connect() 中的连接参数 (#13448)
llama-index-vector-stores-azureaisearch
[0.1.6]#
- 修复 AzureAiSearchVectorStore metadata f-string (#13435)
llama-index-vector-stores-mongodb
[0.1.5]#
- 为 MongoDBAtlasVectorSearch 添加 Unit 和 Integration 测试 (#12854)
llama-index-llms-huggingface
[0.2.0]#
- 更新 llama-index-llms-huggingface 依赖项 (#13420)
llama-index-vector-store-relyt
[0.1.0]#
- 新的 vector store 集成
llama-index-storage-kvstore-redis
[0.1.5]#
- 在 RedisKVStore 中实现 async 方法 (#12943)
llama-index-packs-cohere-citation-chat
[0.1.5]#
- 固定 llama-index-llms-cohere 依赖项 (#13417)
llama-index-llms-cohere
[0.2.0]#
- 固定 cohere 依赖项 (#13417)
llama-index-tools-azure-code-interpreter
[0.1.1]#
- 修复索引问题和运行时错误消息 (#13414)
llama-index-postprocessor-cohere-rerank
[0.1.5]#
- 修复 Cohere Rerank bug (#13410)
llama-index-indices-managed-llama-cloud
[0.1.7]#
- 修复 retriever 集成问题 (#13409)
llama-index-tools-azure-code-interpreter
[0.1.0]#
- 新工具
llama-index-readers-google
[0.2.5]#
- 修复 GoogleDriveReader 中缺失 authorized_user_info 检查的问题 (#13394)
llama-index-storage-kvstore-firestore
[0.2.1]#
- await Firestore 的 AsyncDocumentReference (#13386)
llama-index-llms-nvidia
[0.1.2]#
- 添加动态模型列表支持 (#13398)
[2024-05-09]#
llama-index-core
[0.10.36]#
- 使用 MarkdownElementParser 添加 start_char_idx 和 end_char_idx (#13377)
- 使用全局默认 handlers (#13368)
llama-index-readers-pebblo
[0.1.0]#
- 初始发布 (#13128)
llama-index-llms-cohere
[0.1.7]#
- 使用 documents 参数调用 Cohere RAG 推理 (#13196)
llama-index-vector-scores-kdbai
[0.1.6]#
- 更新 add 方法解码 utf-8 (#13194)
llama-index-vector-stores-alibabacloud-opensearch
[0.1.0]#
- 初始发布 (#13286)
llama-index-tools-multion
[0.2.0]#
- 更新工具以使用更新的 api/sdk (#13373)
llama-index-vector-sores-weaviate
[1.0.0]#
- 更新至 weaviate 客户端 v4 (#13229)
llama-index-readers-file
[0.1.22]#
- 修复 PDFReader 忽略 extra_info 的 bug (#13369)
llama-index-llms-azure-openai
[0.1.8]#
- 添加同步 httpx 客户端支持 (#13370)
llama-index-llms-openai
[0.1.18]#
- 添加同步 httpx 客户端支持 (#13370)
- 添加缺失的 openai 模型 token 上下文 (#13337)
llama-index-readers-github
[0.1.9]#
- 添加 fail_on_http_error (#13366)
llama-index-vector-stores-pinecone
[0.1.7]#
- 为 pinecone 添加 attribution tag (#13329)
llama-index-llms-nvidia
[0.1.1]#
- 设置默认 max_tokens 为 1024 (#13371)
llama-index-readers-papers
[0.1.5]#
- 修复 arxiv reader 的 hiddent temp directory 问题 (#13351)
llama-index-embeddings-nvidia
[0.1.1]#
- 修复 truncate 传递 aget_query_embedding 和 get_text_embedding 的问题 (#13367)
llama-index-llms-anyscare
[0.1.4]#
- 添加 llama-3 模型 (#13336)
[2024-05-07]#
llama-index-agent-introspective
[0.1.0]#
- 添加 CRITIC 和 reflection agent 集成 (#13108)
llama-index-core
[0.10.35]#
- 修复
from_defaults()
清除 summary memory buffer history 的问题 (#13325) - 在核心模块中使用现有 async event loop 而非
asyncio.run()
(#13309) - 修复 condense question chat engine 中 query engine 的 async streaming 问题 (#13306)
- 处理 element node parsers 中 extract_table_summaries 的 ValueError (#13318)
- 为 QASummaryQueryEngineBuilder 和 RouterQueryEngine 正确处理 llm (#13281)
- 扩展 instrumentation payloads (#13302)
- 修复 sql join statement 缺少 schema 的 bug (#13277)
llama-index-embeddings-jinaai
[0.1.5]#
- 在 JinaEmbedding 类中添加 encoding_type 参数 (#13172)
- 修复 JinaEmbeddings 中的 encoding type 访问问题 (#13315)
llama-index-embeddings-nvidia
[0.1.0]#
- 添加 nvidia nim embeddings 支持 (#13177)
llama-index-llms-mistralai
[0.1.12]#
- 修复与 Mistral AI 进行流式传输时的 async 问题 (#13292)
llama-index-llms-nvidia
[0.1.0]#
- 添加 nvidia nim llm 支持 (#13176)
llama-index-postprocessor-nvidia-rerank
[0.1.0]#
- 添加 nvidia nim rerank 支持 (#13178)
llama-index-readers-file
[0.1.21]#
- 更新 MarkdownReader 以解析第一个 header 之前的文本 (#13327)
llama-index-readers-web
[0.1.13]#
- feat: Spider Web Loader (#13200)
llama-index-vector-stores-vespa
[0.1.0]#
- 为 Vespa 添加 VectorStore 集成 (#13213)
llama-index-vector-stores-vertexaivectorsearch
[0.1.0]#
- 添加对 Vertex AI Vector Search 作为 Vector Store 的支持 (#13186)
[2024-05-02]#
llama-index-core
[0.10.34]#
- 在 chat engine 流式传输期间移除错误忽略 (#13160)
- 添加 structured planning agent (#13149)
- 更新 planner agent 的基类 (#13228)
- 修复:使用 SimpleFileNodeParser 解析文件且文件扩展名不在 FILE_NODE_PARSERS 中的错误 (#13156)
- 向 node parsers 添加匹配的
source_node.node_id
验证 (#13109) - Retrieval Metrics:更新 HitRate 和 MRR 以进行 Evaluation@K 文档检索。同时添加 RR 作为单独指标 (#12997)
- 添加 chat summary memory buffer (#13155)
llama-index-indices-managed-zilliz
[0.1.3]#
- ZillizCloudPipelineIndex 接受灵活参数创建 pipelines (#10134, #10112)
llama-index-llms-huggingface
[0.1.7]#
- 添加 Hugging Face text-generation-inference 集成的工具使用支持 (#12471)
llama-index-llms-maritalk
[0.2.0]#
- 为 maritalk 添加流式处理 (#13207)
llama-index-llms-mistral-rs
[0.1.0]#
- 集成 mistral.rs LLM (#13105)
llama-index-llms-mymagic
[0.1.7]#
- mymagicai api 更新 (#13148)
llama-index-llms-nvidia-triton
[0.1.5]#
- Nvidia Triton 集成支持流式处理 (#13135)
llama-index-llms-ollama
[0.1.3]#
- 向 ollama llms 添加 async 支持 (#13150)
llama-index-readers-microsoft-sharepoint
[0.2.2]#
- 从 LLMs 和 embeddings 中排除访问控制 metadata keys - SharePoint Reader (#13184)
llama-index-readers-web
[0.1.11]#
- feat: Browserbase Web Reader (#12877)
llama-index-readers-youtube-metadata
[0.1.0]#
- 添加了 YouTube Metadata Reader (#12975)
llama-index-storage-kvstore-redis
[0.1.4]#
- 修复 redis kvstore key 在 bytes 中的问题 (#13201)
llama-index-vector-stores-azureaisearch
[0.1.5]#
- 遵守 Azure AI Search 的 filter condition (#13215)
llama-index-vector-stores-chroma
[0.1.7]#
- 为新的 chroma 客户端版本小幅提升版本 (#13158)
llama-index-vector-stores-firestore
[0.1.0]#
- 添加 Firestore Vector Store (#12048)
llama-index-vector-stores-kdbai
[0.1.5]#
- 修复
add()
后返回 IDs 的小问题 (#12515)
llama-index-vector-stores-milvus
[0.1.11]#
- 向 MilvusVectorStore 添加混合检索模式 (#13122)
llama-index-vector-stores-postgres
[0.1.7]#
- 在 pgvector store 中参数化 queries (#13199)
[2024-04-27]#
llama-index-core
[0.10.33]#
- 添加 agent_worker.as_agent() (#13061)
llama-index-embeddings-bedrock
[0.1.5]#
- 使用 Bedrock cohere 字符限制 (#13126)
llama-index-tools-google
[0.1.5]#
- 将 attendees 的默认值更改为空列表 (#13134)
llama-index-graph-stores-falkordb
[0.1.4]#
- 当索引已存在时跳过索引创建错误 (#13085)
llama-index-tools-google
[0.1.4]#
- 修复 google calendar create_event api 的 datetime 问题 (#13132)
llama-index-llms-anthropic
[0.1.11]#
- 将多个 prompts 合并为一个 (#13131)
llama-index-indices-managed-llama-cloud
[0.1.6]#
- 在 LlamaCloud Retriever 中使用 MetadataFilters (#13117)
llama-index-graph-stores-kuzu
[0.1.3]#
- 修复 kuzu 集成 .execute() 调用问题 (#13100)
llama-index-vector-stores-lantern
[0.1.3]#
- 维护更新以跟上 lantern 版本 (#13116)
[2024-04-25]#
llama-index-core
[0.10.32]#
- 更正
OutputKeys.from_keys()
的错误输出类型 (#13086) - 向 aws base embedding 添加 run_jobs (#13096)
- 允许用户自定义 keyword extractor prompt template (#13083)
- (CondenseQuestionChatEngine) 如果没有对话历史,则不凝缩问题 (#13069)
- QueryPlanTool: 在 query plan 中执行后续 (依赖) 节点的工具调用 (#13047)
- 修复 fusion retriever 在相似度搜索前有时返回 Nonetype query(s) 的问题 (#13112)
llama-index-embeddings-ipex-llm
[0.1.1]#
- 支持 llama-index-embeddings-ipex-llm 用于 Intel GPU (#13097)
llama-index-packs-raft-dataset
[0.1.4]#
- 修复 raft dataset generator 中的 bug - 多个 system prompts (#12751)
llama-index-readers-microsoft-sharepoint
[0.2.1]#
- 向 SharePoint reader 添加 access control 相关 metadata (#13067)
llama-index-vector-stores-pinecone
[0.1.6]#
- 嵌套 metadata filter 支持 (#13113)
llama-index-vector-stores-qdrant
[0.2.8]#
- 嵌套 metadata filter 支持 (#13113)
[2024-04-23]#
llama-index-core
[0.10.31]#
- 修复 query engine 的 async streaming 响应问题 (#12953)
- 在 element node parsers 中强制使用 uuid (#12951)
- 添加 function calling LLM program (#12980)
- 使 PydanticSingleSelector 支持 async api (#12964)
- 修复 query pipeline 的 arun_with_intermediates 问题 (#13002)
llama-index-agent-coa
[0.1.0]#
- 添加 COA Agent 集成 (#13043)
llama-index-agent-lats
[0.1.0]#
- 官方 LATs agent 集成 (#13031)
llama-index-agent-llm-compiler
[0.1.0]#
- 添加 LLMCompiler Agent 集成 (#13044)
llama-index-llms-anthropic
[0.1.10]#
- 添加向 Anthropic LLM 请求传递自定义 headers 的功能 (#12819)
llama-index-llms-bedrock
[0.1.7]#
- 在 BedRock 集成中添加 claude 3 opus (#13033)
llama-index-llms-fireworks
[0.1.5]#
- 向 Llama Index for Fireworks 添加新的 Llama 3 和 Mixtral 8x22b 模型 (#12970)
llama-index-llms-openai
[0.1.16]#
- 修复 AsyncOpenAI 在实例快速创建和销毁时出现的 "RuntimeError: Event loop is closed bug" (#12946)
- 不要重试所有 OpenAI APIStatusError 异常 - 只重试 InternalServerError (#12947)
llama-index-llms-watsonx
[0.1.7]#
- 更新了 IBM watsonx 基础模型 (#12973)
llama-index-packs-code-hierarchy
[0.1.6]#
- 如果 query node 不存在,则返回父节点 (#12983)
- 修复函数定义两次时的 bug (#12941)
llama-index-program-openai
[0.1.6]#
- 在 OpenAIPydanticProgram 中支持流式传输部分 Pydantic output 类实例 (#13021)
llama-index-readers-openapi
[0.1.0]#
- 添加 openapi 文件 reader (#12998)
llama-index-readers-slack
[0.1.4]#
- 避免抛出未处理异常时的无限循环 (#12963)
llama-index-readers-web
[0.1.10]#
- 改进 whole site reader 以删除重复链接 (#12977)
llama-index-retrievers-bedrock
[0.1.1]#
- 修复 Bedrock KB retriever 以使用 query bundle (#12910)
llama-index-vector-stores-awsdocdb
[0.1.0]#
- 集成 AWS DocumentDB 作为 vector storage 方法 (#12217)
llama-index-vector-stores-databricks
[0.1.2]#
- 修复 databricks vector search metadata 问题 (#12999)
llama-index-vector-stores-neo4j
[0.1.4]#
- Neo4j metadata filter 支持 (#12923)
llama-index-vector-stores-pinecone
[0.1.5]#
- 修复使用 sparse query mode 查询 PineconeVectorStore 的错误 (#12967)
llama-index-vector-stores-qdrant
[0.2.5]#
- async 和检查 collection 是否存在的许多修复 (#12916)
llama-index-vector-stores-weaviate
[0.1.5]#
- 为 WeviateVectoreStore 添加索引删除功能 (#12993)
[2024-04-17]#
llama-index-core
[0.10.30]#
- 向 QueryPipeline 添加 intermediate outputs (#12683)
- 修复 show progress 导致结果乱序问题 (#12897)
- 向 simple vector store 添加 OR filter condition 支持 (#12823)
- 改进 custom agent 初始化 (#12824)
- 修复无 docstore 时 pipeline 加载问题 (#12808)
- 在
_arun_step_stream
中使用 async_aprocess_actions
(#12846) - 向 StreamChatErrorEvent 提供 exception (#12879)
- 修复 load and search tool spec 中的 bug (#12902)
llama-index-embeddings-azure-opena
[0.1.7]#
- 暴露 azure_ad_token_provider 参数以支持 token 过期 (#12818)
llama-index-embeddings-cohere
[0.1.8]#
- 添加 httpx_async_client 选项 (#12896)
llama-index-embeddings-ipex-llm
[0.1.0]#
- 添加 ipex-llm embedding 集成 (#12740)
llama-index-embeddings-octoai
[0.1.0]#
- 添加 octoai embeddings (#12857)
llama-index-llms-azure-openai
[0.1.6]#
- 暴露 azure_ad_token_provider 参数以支持 token 过期 (#12818)
llama-index-llms-ipex-llm
[0.1.2]#
- 为 IpexLLM 集成添加加载 "low-bit format" 模型支持 (#12785)
llama-index-llms-mistralai
[0.1.11]#
- 支持
open-mixtral-8x22b
(#12894)
llama-index-packs-agents-lats
[0.1.0]#
- 添加了 LATS agent pack (#12735)
llama-index-readers-smart-pdf-loader
[0.1.4]#
- 为 documents 使用传入的 metadata (#12844)
llama-index-readers-web
[0.1.9]#
- 添加了 Firecrawl Web Loader (#12825)
llama-index-vector-stores-milvus
[0.1.10]#
- 使用批量插入到 Milvus vector store (#12837)
llama-index-vector-stores-vearch
[0.1.0]#
- 将 vearch 添加到 vector stores (#10972)
[2024-04-13]#
llama-index-core
[0.10.29]#
- BREAKING 将
PandasQueryEngine
和PandasInstruction
parser 移动到llama-index-experimental
(#12419) - 新的安装方式:
pip install -U llama-index-experimental
- 新的导入方式:
from llama_index.experimental.query_engine import PandasQueryEngine
- 修复了一些核心依赖项,以便 python3.12 能良好运行 (#12762)
- 更新 async utils
run_jobs()
以包含 tqdm description (#12812) - 重构 kvdocstore delete 方法 (#12681)
llama-index-llms-bedrock
[0.1.6]#
- 支持 Bedrock 的 Mistral Large (#12804)
llama-index-llms-openvino
[0.1.0]#
- 添加了 OpenVino LLMs (#12639)
llama-index-llms-predibase
[0.1.4]#
- 更新 LlamaIndex-Predibase 集成至最新 API (#12736)
- 在 LlamaIndex-Predibase 集成中启用选择 Predibase 托管或 HuggingFace 托管的 fine-tuned adapters (#12789)
llama-index-output-parsers-guardrails
[0.1.3]#
- 现代化 GuardrailsOutputParser (#12676)
llama-index-packs-agents-coa
[0.1.0]#
- 抽象链 Agent Pack (#12757)
llama-index-packs-code-hierarchy
[0.1.3]#
- 修复了处理多字节字符分块的问题 (#12715)
llama-index-packs-raft-dataset
[0.1.4]#
- 修复 raft dataset generator 中的 bug - 多个 system prompts (#12751)
llama-index-postprocessor-openvino-rerank
[0.1.2]#
- 添加 OpenVINO 重排序支持 (#12688)
llama-index-readers-file
[0.1.18]#
- 在 docx 读取器中如果输入路径是字符串则转换为 Path 对象 (#12807)
- 使 pip check 对可选的 pdf 包生效 (#12758)
llama-index-readers-s3
[0.1.7]#
- 在 S3Reader 中使用默认 S3 endpoint 时文档 id 错误 (#12803)
llama-index-retrievers-bedrock
[0.1.0]#
- 添加 Amazon Bedrock 知识库集成作为检索器 (#12737)
llama-index-retrievers-mongodb-atlas-bm25-retriever
[0.1.3]#
- 添加 MongoDB Atlas BM25 检索器 (#12519)
llama-index-storage-chat-store-redis
[0.1.3]#
- 修复 Redis chat store 中的消息序列化问题 (#12802)
llama-index-vector-stores-astra-db
[0.1.6]#
- 放宽依赖版本以接受 astrapy
1.*
(#12792)
llama-index-vector-stores-couchbase
[0.1.0]#
- 添加对 Couchbase 作为向量存储的支持 (#12680)
llama-index-vector-stores-elasticsearch
[0.1.7]#
- 修复 Elasticsearch 混合 RRF 的
window_size
(#12695)
llama-index-vector-stores-milvus
[0.1.8]#
- 添加了从 Milvus 检索元数据字段的支持 (#12626)
llama-index-vector-stores-redis
[0.2.0]#
- 现代化 Redis 向量存储,使用 redisvl (#12386)
llama-index-vector-stores-qdrant
[0.2.0]#
- 重构:切换默认的 Qdrant 稀疏编码器 (#12512)
[2024-04-09]#
llama-index-core
[0.10.28]#
- 在 Markdown 节点解析器中支持缩进代码块围栏 (#12393)
- 将输出解析器传递给指导评估器 (#12646)
- 添加了查询管道 + 内存的示例 (#12654)
- 在 CondensePlusContextChatEngine 异步模式中添加缺失的节点后处理器 (#12663)
- 为工具/工具元数据添加了
return_direct
选项 (#12587) - 为批量评估运行器添加重试 (#12647)
- 线程安全的观测 (#12638)
- 协程安全的观测 Spans #12589
- 在 PDFReader 中为非默认文件系统添加内存加载支持 (#12659)
- 删除句子分割器中冗余的分词器调用 (#12655)
- 将 SynthesizeComponent 导入添加到快捷导入 (#12655)
- 改进了 SimpleSummarize 中的截断 (#12655)
- 在 eval_utils default_parser 中添加错误处理以确保正确性 (#12624)
- 在 RankGPT 后处理器节点中添加 async_postprocess_nodes (#12620)
- 修复 MarkdownNodeParser 的 ref_doc_id (#12615)
llama-index-embeddings-openvino
[0.1.5]#
- 添加了对 OpenVINO 嵌入的初步支持 (#12643)
llama-index-llms-anthropic
[0.1.9]#
- 添加 Anthropic 工具调用 (#12591)
llama-index-llms-ipex-llm
[0.1.1]#
- 添加 ipex-llm 集成 (#12322)
- 为 ipex-llm llm 集成添加更多数据类型支持 (#12635)
llama-index-llms-openllm
[0.1.4]#
- 在 OpenLLM 中正确使用 PrivateAttr (#12655)
llama-index-multi-modal-llms-anthropic
[0.1.4]#
- 提高了 Anthropic 依赖版本 (#12655)
llama-index-multi-modal-llms-gemini
[0.1.5]#
- 提高了 generativeai 依赖 (#12645)
llama-index-packs-dense-x-retrieval
[0.1.4]#
- 为 DenseXRetrievalPack 添加流式传输支持 (#12607)
llama-index-readers-mongodb
[0.1.4]#
- 提高了 MongoDB 读取器的效率 (#12664)
llama-index-readers-wikipedia
[0.1.4]#
- 为 Wikipedia 读取器添加了多语言支持 (#12616)
llama-index-storage-index-store-elasticsearch
[0.1.3]#
- 从默认集合名称中移除无效字符 (#12672)
llama-index-vector-stores-milvus
[0.1.8]#
- 添加了从 Milvus 检索元数据字段的支持 (#12626)
- Bug 修复 - MilvusVectorStore 的相似度指标始终是 IP (#12611)
[2024-04-04]#
llama-index-agent-openai
[0.2.2]#
- 更新消息线程类型的导入 (#12437)
llama-index-core
[0.10.27]#
- 修复 Pydantic 查询引擎输出为空白的问题 (#12469)
- 向 Events (观测) 添加 span_id 属性 (#12417)
- 修复从 docs 属性检索 RedisDocstore 节点的问题 (#12324)
- 向 retriever_tool 添加节点后处理器 (#12415)
- FLAREInstructQueryEngine:如果查询引擎支持,则委托检索器 API (#12503)
- 使聊天消息到字典的转换更安全 (#12526)
- 修复批量评估运行器中 multi-kwargs 的检查 (#12563)
- 修复 agent_react_multimodal_step.py 中 partial args 的 bug (#12566)
llama-index-embeddings-clip
[0.1.5]#
- 添加了从本地文件路径加载 CLIP 模型支持 (#12577)
llama-index-embeddings-cloudflar-workersai
[0.1.0]#
- 文本嵌入集成:Cloudflare Workers AI (#12446)
llama-index-embeddings-voyageai
[0.1.4]#
- 修复类定义中的 Pydantic 问题 (#12469)
llama-index-finetuning
[0.1.5]#
- QA 生成提示中的小拼写错误修复 (#12470)
llama-index-graph-stores-falkordb
[0.1.3]#
- 将 Redis 驱动替换为 FalkorDB 驱动 (#12434)
llama-index-llms-anthropic
[0.1.8]#
- 添加向 Anthropic 客户端传递自定义 HTTP 头部的能力 (#12558)
llama-index-llms-cohere
[0.1.6]#
- 添加对 Cohere Command R+ 模型支持 (#12581)
llama-index-llms-databricks
[0.1.0]#
- 与 Databricks LLM API 集成 (#12432)
llama-index-llms-watsonx
[0.1.6]#
- 更新了 Watsonx 基础模型 (#12493)
- 更新了 Watsonx 集成的基础模型名称 #12491
lama-index-postprocessor-rankllm-rerank
[0.1.2]#
- 在 RankLLM 中添加 RankGPT 支持 (#12475)
llama-index-readers-microsoft-sharepoint
[0.1.7]#
- SharePoint 默认使用递归策略 (#12557)
llama-index-readers-web
[0.1.8]#
- 可读性网页阅读器修复 playwright 异步 API bug (#12520)
llama-index-vector-stores-kdbai
[0.1.5]#
to_list
的小修复 (#12515)
llama-index-vector-stores-neptune
[0.1.0]#
- 添加对 Neptune Analytics 作为向量存储的支持 (#12423)
llama-index-vector-stores-postgres
[0.1.5]#
- fix(postgres): 数值元数据过滤器 (#12583)
[2024-03-31]#
llama-index-core
[0.10.26]#
- 在 QueryFusionRetriever 中传递正确的查询 Bundle (#12387)
- 更新 llama_parse_json_element.py 以修复列表中出现的错误 (#12402)
- 向检索器工具添加节点后处理器 (#12415)
- 修复用户指定的 LLM 在元素节点解析器的回退逻辑中未被尊重的问题 (#12403)
- 为异步回调管理器事件记录正确的 LLM 响应键 (#12421)
- 删除两个内置 react 系统提示的重复项;并使其从 Markdown 文件读取 (#12307)
- 修复 BatchEvalRunner 中 multi-evaluator eval_kwargs_lists 的 bug (#12418)
- 添加向量存储索引 insert_nodes 的回调管理器事件 (#12443)
- 修复将包含 Pydantic API 对象的聊天消息序列化到 chat stores 时的问题 (#12394)
- 修复 memory.get() 操作缓慢的问题(由多次调用 get_all() 引起)(#12394)
- 修复 agent+tool 消息对从内存中被截断的问题 (#12394)
- 为对象索引添加 FnNodeMapping (#12391)
- 使对象索引的对象映射可选/隐藏 (#12391)
- 使对象索引更容易从现有向量数据库创建 (#12391)
- 当 LLM 未能遵循 react 响应模板时,告知它 #12300
llama-index-embeddings-cohere
[0.1.5]#
- 将 Cohere 版本提高到 5.1.1 (#12279)
llama-index-embeddings-itrex
[0.1.0]#
- 添加 Intel Extension for Transformers 嵌入模型 (#12410)
llama-index-graph-stores-neo4j
[0.1.4]#
- 使 Neo4j 查询不区分大小写 (#12337)
llama-index-llms-cohere
[0.1.5]#
- 将 Cohere 版本提高到 5.1.1 (#12279)
llama-index-llms-ipex-llm
[0.1.0]#
- 添加 ipex-llm 集成 (#12322)
llama-index-llms-litellm
[0.1.4]#
- 修复 litellm ChatMessage 角色验证错误 (#12449)
llama-index-llms-openai
[0.1.14]#
- 在 OpenAI 中使用 FunctionCallingLLM 基类 (#12227)
llama-index-packs-self-rag
[0.1.4]#
- 修复 llama-index-core 依赖 (#12374)
llama-index-postprocessor-cohere-rerank
[0.1.4]#
- 将 Cohere 版本提高到 5.1.1 (#12279)
llama-index-postprocessor-rankllm-rerank
[0.1.1]#
- 添加了 RankLLM 重排序 (#12296)
- RankLLM 修复 (#12399)
llama-index-readers-papers
[0.1.4]#
- 修复路径名称的 bug (#12366)
llama-index-vector-stores-analyticdb
[0.1.1]#
- 添加 AnalyticDB VectorStore (#12230)
llama-index-vector-stores-kdbai
[0.1.4]#
- 修复导入/readme 中的拼写错误 (#12370)
llama-index-vector-stores-qdrant
[0.1.5]#
- 为 Qdrant 添加
in
过滤器操作符 (#12376)
[2024-03-27]#
llama-index-core
[0.10.25]#
- 在 KnowledgeGraphQueryEngine 中向 NodeWithScore 添加分数 (#12326)
- 批量评估运行器修复 (#12302)
llama-index-embeddings-cohere
[0.1.5]#
- 添加了对二进制/量化嵌入的支持 (#12321)
llama-index-llms-mistralai
[0.1.10]#
- 为 MistralAI 添加自定义 endpoint 支持 (#12328)
llama-index-storage-kvstore-redis
[0.1.3]#
- 修复从 docs 属性检索 RedisDocstore 节点的问题 (#12324)
[2024-03-26]#
llama-index-core
[0.10.24]#
- LlamaDebugHandler 中的漂亮打印 (#12216)
- 对 pandas 查询引擎施加更严格的解释器约束 (#12278)
- PandasQueryEngine 现在可以执行 'pd.*' 函数 (#12240)
- 在 docstore delete 函数中删除正确的元数据 (#12276)
- 改进了 OpenAI agent 解析函数钩子 (#12062)
- 为 SimpleDirectoryReader 添加 raise_on_error 标志 (#12263)
- 移除核心中未捕获的 OpenAI 导入 (#12262)
- 修复 download_llama_dataset 和 download_llama_pack (#12273)
- 实现 EvalQueryEngineTool (#11679)
- 扩展 AgentRunner 的观测 Span 覆盖范围 (#12249)
- 添加函数调用 agent/llm 的概念(目前支持 Mistral)(#12222, )
llama-index-embeddings-huggingface
[0.2.0]#
- 使用
sentence-transformers
作为后端 (#12277)
llama-index-postprocessor-voyageai-rerank
[0.1.0]#
- 添加 voyageai 作为重排序器 (#12111)
llama-index-readers-gcs
[0.1.0]#
- 添加 Google Cloud Storage 读取器 (#12259)
llama-index-readers-google
[0.2.1]#
- 支持不同的云盘 (#12146)
- 从 Google Drive Reader 中移除不必要的 PyDrive 依赖 (#12257)
llama-index-readers-readme
[0.1.0]#
- 添加 readme.com 读取器 (#12246)
llama-index-packs-raft
[0.1.3]#
- 添加 RAFT pack (#12275)
[2024-03-23]#
llama-index-core
[0.10.23]#
- 向基础 LLM 类 + OpenAI + MistralAI 添加 (a)predict_and_call() 函数 (#12188)
- 修复异步 agent 流式传输中 wait() 的 bug (#12187)
llama-index-embeddings-alephalpha
[0.1.0]#
- 添加 alephalpha 嵌入 (#12149)
llama-index-llms-alephalpha
[0.1.0]#
- 添加 alephalpha LLM (#12149)
llama-index-llms-openai
[0.1.7]#
- 修复异步 agent 流式传输中 wait() 的 bug (#12187)
llama-index-readers-docugami
[0.1.4]#
- 修复 docugami 读取器中的导入错误 (#12154)
llama-index-readers-file
[0.1.12]#
- 修复远程文件系统 PDFReader (#12186)
[2024-03-21]#
llama-index-core
[0.10.22]#
- 文档后端从 sphinx 更新到 mkdocs,添加了所有 API 参考,进行了一些轻微重组,优化了搜索 (#11301)
- 向 BaseReader 类添加异步加载支持(目前是模拟异步)(#12156)
- 修复 SimpleDirectoryReader 中非本地文件系统的路径实现 (#12141)
- 在观测中,为 spans 添加 args/kwargs,为检索事件添加 payloads (#12147)
- [React Agent] 发生异常时,告知它,以便 Agent 可以自行纠正 (#12137)
llama-index-embeddings-together
[0.1.3]#
- 添加速率限制处理 (#12127)
llama-index-graph-stores-neptune
[0.1.3]#
- 添加对 Amazon Neptune 作为图存储的支持 (#12097)
llama-index-llms-vllm
[0.1.7]#
- 修复 VllmServer 在不需要 CUDA 的 vllm core 下工作的问题 (#12003)
llama-index-readers-s3
[0.1.4]#
- 在 S3Reader 中使用 S3FS (#12061)
llama-index-storage-docstore-postgres
[0.1.3]#
- 添加正确的 kvstore 依赖 (#12157)
llama-index-storage-index-store-postgres
[0.1.3]#
- 添加正确的 kvstore 依赖 (#12157)
llama-index-vector-stores-elasticsearch
[0.1.6]#
- 修复 Elasticsearch add 函数中未关闭的会话 #12135
llama-index-vector-stores-kdbai
[0.1.3]#
- 添加对 KDBAIVectorStore 的支持 (#11967)
[2024-03-20]#
llama-index-core
[0.10.21]#
- StreamingAgentChatResponse 异步元素的懒加载 (#12116)
- 修复 SynthesisEndEvent 导致的流式生成器获取 bug (#12092)
- CLIP 嵌入支持更多模型 (#12063)
llama-index-packs-raptor
[0.1.3]#
- 向 summary module 添加 num_workers (#)
llama-index-readers-telegram
[0.1.5]#
- 修复日期时间字段 (#12112)
- 添加选择帖子/消息时间段的功能 (#12078)
llama-index-embeddings-openai
[0.1.7]#
- 为 OpenAI 嵌入添加可选的 API 版本/基础 API (#12091)
llama-index-networks
[0.2.1]#
- 向网络检索器添加节点后处理 (#12027)
- 添加隐私安全的网络演示 (#12027)
llama-index-callbacks-langfuse
[0.1.3]#
- 例行任务:提高 langfuse 依赖的最低版本 (#12077)
llama-index-embeddings-google
[0.1.4]#
- 例行任务:提高 google-generativeai 依赖 (#12085)
llama-index-embeddings-gemini
[0.1.5]#
- 例行任务:提高 google-generativeai 依赖 (#12085)
llama-index-llms-gemini
[0.1.6]#
- 例行任务:提高 google-generativeai 依赖 (#12085)
llama-index-llms-palm
[0.1.4]#
- 例行任务:提高 google-generativeai 依赖 (#12085)
llama-index-multi-modal-llms-google
[0.1.4]#
- 例行任务:提高 google-generativeai 依赖 (#12085)
llama-index-vector-stores-google
[0.1.5]#
- 例行任务:提高 google-generativeai 依赖 (#12085)
llama-index-storage-kvstore-elasticsearch
[0.1.0]#
- 新集成 (#12068)
llama-index-readers-google
[0.1.7]#
- 修复 - Google Drive 无法加载同名文件的问题 (#12022)
llama-index-vector-stores-upstash
[0.1.3]#
- 为 UpstashVectorStore 添加元数据过滤支持 (#12054)
llama-index-packs-raptor
[0.1.2]#
- 修复:防止 RaptorPack 无限递归 (#12008)
llama-index-embeddings-huggingface-optimum
[0.1.4]#
- Fix(OptimumEmbedding): 移除导致 ONNX 验证问题的 token_type_ids
llama-index-llms-anthropic
[0.1.7]#
- 修复:Anthropic LLM 合并具有相同角色的连续消息 (#12013)
llama-index-packs-diff-private-simple-dataset
[0.1.0]#
- 差异隐私 ICL Pack - OpenAI Completion LLMs (#11881)
llama-index-cli
[0.1.11]#
- 从 download_llama_dataset 命令中移除 llama_hub_url 关键字 (#12038)
[2024-03-14]#
llama-index-core
[0.10.20]#
- 用于可观测性的新观测模块 (#11831)
- 允许为 CitationQueryEngine 传入 LLM (#11914)
- 更新 keyval docstore,除了命名空间外还允许更改后缀 (#11873)
- 向 query_engine 添加(部分)异步流式传输支持 #11949
llama-index-embeddings-dashscope
[0.1.3]#
- 修复查询文本的嵌入类型 (#11901)
llama-index-embeddings-premai
[0.1.3]#
- 支持 premai 嵌入 (#11954)
llama-index-networks
[0.2.0]#
- 添加了对网络检索器的支持 (#11800)
llama-index-llms-anthropic
[0.1.6]#
- 添加了对 haiku 的支持 (#11916)
llama-index-llms-mistralai
[0.1.6]#
- 修复 ChatMessage 的导入错误 (#11902)
llama-index-llms-openai
[0.1.11]#
- 为 AZURE_TURBO_MODELS 添加 gpt-35-turbo-0125 (#11956)
- 修复 logprobs 中 nontype 的错误 (#11967)
llama-index-llms-premai
[0.1.4]#
- 支持 premai LLM (#11954)
llama-index-llms-solar
[0.1.3]#
- 支持 solar 作为 LLM 类 (#11710)
llama-index-llms-vertex
[0.1.5]#
- 在 Vertex 中添加对 medlm 的支持 (#11911)
llama-index-readers-goolge
[0.1.6]#
- 为 Google Drive 读取器添加 README 文件和查询字符串 (#11724)
llama-index-readers-file
[0.1.11]#
- 更新 ImageReader,添加 plain_text 选项以触发 pytesseract (#11913)
llama-index-readers-pathway
[0.1.3]#
- 使用纯 requests 减少依赖,简化代码 (#11924)
llama-index-retrievers-pathway
[0.1.3]#
- 使用纯 requests 减少依赖,简化代码 (#11924)
llama-index-storage-docstore-mongodb
[0.1.3]#
- 允许更改 mongodb docstore 的后缀 (#11873)
llama-index-vector-stores-databricks
[0.1.1]#
- 支持 Databricks 向量搜索作为向量存储 (#10754)
llama-index-vector-stores-opensearch
[0.1.8]#
- (重新)实现正确的删除 (#11959)
llama-index-vector-stores-postgres
[0.1.4]#
- 修复 IN 过滤器和 OR 文本搜索 (#11872, #11927)
[2024-03-12]#
llama-index-cli
[0.1.9]#
- 移除 chroma 作为捆绑依赖,以减少 llama-index 依赖
llama-index-core
[0.10.19]#
- 在 OpenAI llm 类中引入速率限制重试 (#11867)
- 在 SQLDatabase 的 SQL 表 schema 中添加表注释 (#11774)
- 向 ChatResponse 对象添加 LogProb 类型 (#11795)
- 引入 LabelledSimpleDataset (#11805)
- 修复插入包含不可序列化对象的 IndexNode 对象 (#11836)
- 修复 CondenseQuestionChatEngine 中将流式聊天响应写入历史记录时的类型错误 (#11856)
- 改进 json 查询引擎的后处理 (#11862)
llama-index-embeddings-cohere
[0.1.4]#
- 修复异步 kwarg 错误 (#11822)
llama-index-embeddings-dashscope
[0.1.2]#
- 修复 Pydantic 导入 (#11765)
llama-index-graph-stores-neo4j
[0.1.3]#
- 验证连接后正确关闭连接 (#11821)
llama-index-llms-cohere
[0.1.3]#
- 添加对新 command-r 模型支持 (#11852)
llama-index-llms-huggingface
[0.1.4]#
- 修复带特殊 token 的流式解码 (#11807)
llama-index-llms-mistralai
[0.1.5]#
- 添加了对最新模型和开源模型支持 (#11792)
llama-index-tools-finance
[0.1.1]#
- 修复传入获取股票新闻 API 时的小 bug (#11772)
llama-index-vector-stores-chroma
[0.1.6]#
- 精简 chroma 依赖 (#11775)
llama-index-vector-stores-lancedb
[0.1.3]#
- 删除修复 (#11825)
llama-index-vector-stores-postgres
[0.1.3]#
- 支持嵌套元数据过滤器 (#11778)
[2024-03-07]#
llama-index-callbacks-deepeval
[0.1.3]#
- 更新回调处理器的导入路径 (#11754)
llama-index-core
[0.10.18]#
- 确保 LoadAndSearchToolSpec 加载文档对象 (#11733)
- 修复 QueryFusionRetriever 中没有节点的 bug (#11759)
- 允许 BatchEvalRunner 中不同评估器使用不同的运行时 kwargs (#11727)
- 修复 fsspec + SimpleDirectoryReader 的问题 (#11665)
- 移除 guideline evaluator 对 asyncio.run() 的要求 (#11719)
llama-index-embeddings-voyageai
[0.1.3]#
- 更新 voyage 嵌入以使用正确的客户端 (#11721)
llama-index-indices-managed-vectara
[0.1.3]#
- 修复 vectara query engine 在非摘要模式下的问题 (#11668)
llama-index-llms-mymagic
[0.1.5]#
- 添加 json 输出包含查询和响应的 return_output 选项 (#11761)
llama-index-packs-code-hierarchy
[0.1.0]#
- 添加了 CodeHiearchyAgentPack 支持,它允许以 agent 方式遍历代码库 (#10671)
llama-index-packs-cohere-citation-chat
[0.1.3]#
- 添加了一个新的 llama-pack,用于引用 + 与 cohere 聊天 (#11697)
llama-index-vector-stores-milvus
[0.1.6]#
- 防止在添加文档时强制 flush() (#11734)
llama-index-vector-stores-opensearch
[0.1.7]#
- 元数据列名中的小拼写错误 (#11751)
llama-index-vector-stores-tidbvector
[0.1.0]#
- TiDB 向量存储的初步支持 (#11635)
llama-index-vector-stores-weaviate
[0.1.4]#
- 元数据过滤器中 int 字段的小修复 (#11742)
[2024-03-06]#
新格式!尝试按包报告变更。
llama-index-cli
[0.1.8]#
- 更新 upgrade 命令的映射 (#11699)
llama-index-core
[0.10.17]#
- 向 QueryFusionRetriever 添加 relative_score 和 dist_based_score (#11667)
- 检查异步 agent 队列中的 None (#11669)
- 允许 BaseSQLTableQueryEngine 使用 refine 模板 (#11378)
- 更新 llama-packs 的映射 (#11699)
- 修复 KG 索引中提取相关文本的索引错误 (#11695)
- 当没有节点时,合成器返回正确的响应类型 (#11701)
- 在 DocumentSummaryIndex 中将元数据继承到摘要 (#11671)
- 在 SQL 查询引擎中继承回调管理器 (#11662)
- 修复 agent 流式传输未写入聊天历史记录的 bug (#11675)
- 修复通过 agent 流式传输函数调用时 none deltas 的小 bug (#11713)
llama-index-multi-modal-llms-anthropic
[0.1.2]#
- 添加了对新的多模态模型 haiku 和 sonnet 的支持 (#11656)
llama-index-packs-finchat
[0.1.0]#
- 添加了一个新的 llama-pack,用于分层 agent + 金融聊天 (#11387)
llama-index-readers-file
[0.1.8]#
- 添加了检查 NLTK 文件是否已下载的支持 (#11676)
llama-index-readers-json
[0.1.4]#
- 创建文档时使用传入的元数据 (#11626)
llama-index-vector-stores-astra-db
[0.1.4]#
- 更新警告消息中的措辞 (#11702)
llama-index-vector-stores-opensearch
[0.1.7]#
- 避免在代码中调用 nest_asyncio.apply(),以避免给用户造成困惑的错误 (#11707)
llama-index-vector-stores-qdrant
[0.1.4]#
- 捕获 RPC 错误 (#11657)
[0.10.16] - 2024-03-05#
新特性#
- Anthropic 支持新模型 (#11623, #11612)
- 更轻松地创建聊天提示 (#11583)
- 添加了一个 Raptor 检索器 llama-pack (#11527)
- 通过 Bedrock 改进 Cohere 批量嵌入 (#11572)
- 添加了对 Vertex AI 嵌入的支持 (#11561)
Bug 修复/小改进#
- 确保异步嵌入生成中的顺序 (#11562)
- 修复 csv 读取器空元数据的问题 (#11563)
- 可组合检索器的序列化修复 (#11617)
- 修复 Milvus 元数据过滤器支持 (#11566)
- 修复 ClickHouse 向量存储中的 Pydantic 导入 (#11631)
- 修复 gemini/vertext-gemini 的系统提示 (#11511)
[0.10.15] - 2024-03-01#
新特性#
- 添加 FeishuWikiReader (#11491)
- 添加 videodb 检索器集成 (#11463)
- 向 OpenSearch 向量存储添加异步支持 (#11513)
- 新的 LangFuse 一键式回调处理器 (#11324)
Bug 修复/小改进#
- 修复异步聊天流式传输的死锁问题 (#11548)
- 改进 SimpleDirectoryReader 中的隐藏文件检查 (#11496)
- 修复 SimpleDirectoryReader 中文档元数据中的空值 (#11501)
- 修复 jsonalyze 查询引擎中的 sqlite utils (#11519)
- 向 Ollama 多模态 LLM 添加 base url 和 timeout (#11526)
- 更新 query fusion retriever 中的重复处理 (#11542)
- 修复 kg indexx 结构更新中的 bug (#11475)
[0.10.14] - 2024-02-28#
新特性#
- 发布 llama-index-networks (#11413)
- Jina 重排序器 (#11291)
- 添加 DuckDuckGo agent 搜索工具 (#11386)
- chatml 的 helper 函数 (#10272)
- 添加 brave 搜索工具用于 agents (#11468)
- 添加 Friendli LLM 集成 (#11384)
- 只查询 ChromaDB 元数据 (#11328)
Bug 修复/小改进#
- 修复合成器中继承 llm 回调的问题 (#11404)
- 捕获 Milvus 中的删除错误 (#11315)
- 修复 Pinecone kwargs 问题 (#11422)
- Supabase 元数据过滤修复 (#11428)
- Gemini 嵌入中的 API base 修复 (#11393)
- 修复 Elasticsearch 向量存储 await (#11438)
- vllm server cuda 修复 (#11442)
- 修复向 context chat engine 传递 LLM 的问题 (#11444)
- 为 Cohere 嵌入设置输入类型 (#11288)
- Azure AD token 的默认值 (#10377)
- 重新添加 React Agent 的提示 mixin (#10610)
- 修复 Gemini 的系统角色 (#11481)
- 修复 mean agg pooling 返回 numpy float 值的问题 (#11458)
- 改进 JSONQueryEngine 的 json 路径解析 (#9097)
[0.10.13] - 2024-02-26#
新特性#
- 添加了一个用于 KodaRetriever 的 llama-pack,用于即时 alpha 调优 (#11311)
- 添加了对 mistral-large 的支持 (#11398)
- HuggingFace 嵌入模型(如 SFR-Embedding-Mistral)的最后一个 token 池化模式 (#11373)
- 向 SimpleDirectoryReader 添加 fsspec 支持 (#11303)
Bug 修复/小改进#
- 修复 context window + prompt helper 的问题 (#11379)
- 将 OpenSearch 向量存储移至 BasePydanticVectorStore (#11400)
- 修复 fireworks LLM 中的函数调用 (#11363)
- 使 Cohere 嵌入类型更自动化 (#11288)
- 改进 React Agent 中的函数调用 (#11280)
- 修复 MockLLM 导入 (#11376)
[0.10.12] - 2024-02-22#
新特性#
- 添加了
llama-index-postprocessor-colbert-rerank
包 (#11057) MyMagicAI
LLM (#11263)MariaTalk
LLM (#10925)- 为 GitHub 读取器添加重试 (#10980)
- 添加 FireworksAI 嵌入和 LLM 模块 (#10959)
Bug 修复/小改进#
- 修复 Weaviate 中的字符串格式化问题 (#11294)
- 修复语义分割器中的 off-by-one 错误 (#11295)
- 修复 download_llama_pack 处理多个文件的问题 (#11272)
- 从包中移除 BUILD 文件 (#11267)
- 放宽所有包的 Python 版本要求 (#11267)
- 修复 ChromaDB 的 args 问题 (#11104)
[0.10.11] - 2024-02-21#
Bug 修复/小改进#
- 修复异步 acomplete 的多模态 LLM (#11064)
- 修复 llamaindex-cli 导入问题 (#11068)
[0.10.10] - 2024-02-20#
抱歉,我们的发布流程还有些不顺畅。这只是一个版本升级,以确保本应在 0.10.9 版本中发布的变更确实已发布。(AF)
[0.10.9] - 2024-02-20#
- 添加 llama-index-cli 依赖
[0.10.7] - 2024-02-19#
新特性#
- 添加 Self-Discover llamapack (#10951)
Bug 修复/小改进#
- 修复 CICD 中的 linting 问题 (#10945)
- 修复使用远程图存储的问题 (#10971)
- 在 NoText 响应合成器中添加缺失的 LLM kwarg (#10971)
- 修复 rankgpt 中的 OpenAI 导入 (#10971)
- 修复 OpenAI 嵌入中将模型名称解析为字符串的问题 (#10971)
- 句子窗口节点解析器中的 off-by-one 错误 (#10971)
[0.10.6] - 2024-02-17#
首先,很抱歉遗漏了最近几个版本的变更日志。我们正在努力为 400 多个包找到最佳流程。
在某个时候,每个包都会有专门的变更日志。
但目前,先发布“主”变更日志。
新特性#
- 添加
NomicHFEmbedding
(#10762) - 添加
MinioReader
(#10744)
Bug 修复/小改进#
- ClickHouse 向量存储的各种修复 (#10799)
- 修复 Neo4j 向量存储中的索引名称 (#10749)
- SageMaker 嵌入的修复 (#10778)
- 修复分割节点时的性能问题 (#10766)
- 修复 reranker + b25 中的非浮点值 (#10930)
- OpenAI-agent 应作为 OpenAI 程序的依赖 (#10930)
- 添加查询管道组件缺失的快捷导入 (#10930)
- 修复 NLTK 和 tiktoken 未正确与核心捆绑的问题 (#10930)
- 重新添加
llama_index.core.__version__
(#10930)
[0.10.3] - 2024-02-13#
Bug 修复/小改进#
- 修复将 LLM 传递给 as_chat_engine 的问题 (#10605)
- 修复 Anthropic 系统提示格式 (#10603)
- 修复 Elasticsearch 向量存储在 __version__ 上的错误 (#10656)
- 修复 OpenAI Pydantic program 的导入 (#10657)
- 将客户端重新添加回 OpenSearch 向量存储导出 (#10660)
- 修复 SimpleDirectoryReader 未正确使用文件加载器的 bug (#10655)
- 向 RankGPT 添加懒加载 LLM 初始化 (#10648)
- 修复 Bedrock embedding from_credentials 传递模型名称的问题 (#10640)
- 重新添加 TelegramReader 最近的更改 (#10625)
[0.10.0, 0.10.1] - 2024-02-12#
重大变更#
- 引入了多项变更。请参阅完整博客文章了解详细信息。
[0.9.48] - 2024-02-12#
Bug 修复/小改进#
- 重新添加 BedrockEmbdding 的弃用 API (#10581)
[0.9.47] - 2024-02-11#
v0.10 发布前的最后一个补丁!
新特性#
- 向查询管道添加条件链接 (#10520)
- 重构条件链接 + 添加到 cookbook (#10544)
- agent + 查询管道清理 (#10563)
Bug 修复/小改进#
- 添加 sleep 以修复聊天流中的延迟 (#10339)
- OllamaMultiModal kwargs (#10541)
- 更新摄取管道以处理空文档 (#10543)
- 修复小拼写错误 (#10516)
- 修复 Elasticsearch 异步检查 (#10549)
- 文档/更新 Slack demo Colab (#10534)
- 为 PGVectorStore 添加使用 IN 操作符的可能性 (#10547)
- 修复 agent 重置 (#10562)
- 修复来自多个文档的 Markdown 重复节点 id (#10564)
[0.9.46] - 2024-02-08#
新特性#
- 更新嵌入模型的池化策略 (#10536)
- 添加多模态视频 RAG 示例 (#10530)
- 添加 SECURITY.md (#10531)
- 将 agent 模块指南上移一级 (#10519)
Bug 修复/小改进#
- Deeplake 修复 (#10529)
- 为 llamaindex 添加 Cohere 部分 (#10523)
- 修复 Markdown 元素 (#10510)
[0.9.45.post1] - 2024-02-07#
新特性#
- 将 Deeplake 向量数据库升级为使用 BasePydanticVectorStore (#10504)
Bug 修复/小改进#
- 修复 Markdown 解析器处理不一致表格的问题 (#10488)
- 修复 MetadataExtractionSEC.ipynb 中 pypdf 的 ImportError (#10491)
[0.9.45] - 2024-02-07#
新特性#
- 重构:添加 AgentRunner.from_llm 方法 (#10452)
- 支持非聊天 LLMs 的自定义提示格式 (#10466)
- 将 cryptography 版本从 41.0.7 提高到 42.0.0 (#10467)
- 为 Colbert Index 添加 persist 和 load 方法 (#10477)
- 允许自定义 agent 接收用户输入 (#10450)
Bug 修复/小改进#
- 从 arize-phoenix 全局回调处理器中移除 exporter (#10465)
- 修复 Dashscope qwen LLM bug (#10471)
- 修复:调用 AWS Bedrock 模型 (#10443)
- 将 Azure AI Search (原 Azure Cognitive Search) 向量存储集成更新至最新的客户端 SDK 11.4.0 稳定版 + 更新 jupyter notebook 示例 (#10416)
- 修复一些导入 (#10485)
[0.9.44] - 2024-02-05#
新特性#
- Ollama 视觉 cookbook (#10438)
- 支持 Gemini "transport" 配置 (#10457)
- 添加 Upstash Vector (#10451)
[0.9.43] - 2024-02-03#
新特性#
- 添加多模态 Ollama (#10434)
Bug 修复/小改进#
- 更新 astradb 的基类 (#10435)
[0.9.42.post1] - 2024-02-02#
新特性#
- 添加 Base nodes parser 的异步支持 (#10418)
[0.9.42] - 2024-02-02#
新特性#
- 添加对 gpt-3.5-turbo-0125 的支持 (#10412)
- 向 rag cli 添加 create-llama 支持 (#10405)
Bug 修复/小改进#
- 修复 lance-db 向量存储中的小 bug (#10404)
- 修复 Ollama 中的流式传输 bug (#10407)
[0.9.41] - 2024-02-01#
新特性#
- Nomic Embedding (#10388)
- Dashvector 支持稀疏向量 (#10386)
- 使用 MarkDownParser 进行表格问答和基准测试 (#10382)
- 简单网页读取器 (#10395)
Bug 修复/小改进#
- 修复 KeywordExtractor 中的完整节点内容 (#10398)
[0.9.40] - 2024-01-30#
新特性#
- 改进和修复 MarkdownElementNodeParser 的 bug (#10340)
- 修复和改进 Perplexity 对新模型的支持 (#10319)
- 确保 system_prompt 传递给 Perplexity LLM (#10326)
- 扩展 BaseRetrievalEvaluator 以包含一个可选的 PostProcessor (#10321)
[0.9.39] - 2024-01-26#
新特性#
- 支持新的 GPT Turbo 模型 (#10291)
- 支持 Sentence Transformer Fine tuning 的多个文档 (#10297)
Bug 修复/小改进#
- Marvin 导入修复 (#9864)
[0.9.38] - 2024-01-25#
新特性#
- 支持新的 OpenAI v3 嵌入模型 (#10279)
Bug 修复/小改进#
- 对 Qdrant 稀疏嵌入进行额外检查 (#10275)
[0.9.37] - 2024-01-24#
新特性#
- 添加了一个 RAG CLI 工具 (#10193)
- 添加了一个 textai 向量存储 (#10240)
- 添加了一个基于 PostgreSQL 的文档存储和索引存储 (#10233)
- 在 tool specs 中指定 tool spec (#10263)
Bug 修复/小改进#
- 修复 Ollama 聊天中的序列化错误 (#10230)
- 向 SentenceTransformerRerank 添加缺失字段 (#10225)
- 修复标题提取 (#10209, #10226)
- 小改进:使可链式输出解析器在库/文档中更易于访问 (#10262)
- :bug: 摘要索引未携带 excluded metadata keys (#10259)
[0.9.36] - 2024-01-23#
新特性#
- 添加了对 SageMakerEmbedding 的支持 (#10207)
Bug 修复/小改进#
- 修复 OpenAI Assistant 上的重复 file_id (#10223)
- 修复 programs 的循环依赖 (#10222)
- 对来自同一父文档的节点组运行 TitleExtractor (#10209)
- 改进 Vectara 自动检索 (#10195)
[0.9.35] - 2024-01-22#
新特性#
- beautifulsoup4 依赖到新的可选 extra html (#10156)
- 使 BaseNode.hash 成为一个 @property (#10163)
- Neutrino (#10150)
- 特性:JSONalyze 查询引擎 (#10067)
- [wip] 添加自定义混合检索器 notebook (#10164)
- 向 ChromaVectorStore 类添加 from_collection 方法 (#10167)
- CLI 实验 v0: ask (#10168)
- 使 react agent 提示更易编辑 (#10154)
- 添加 agent 查询管道 (#10180)
Bug 修复/小改进#
- 更新 supabase vecs 元数据过滤函数以支持多个字段 (#10133)
- LanceDB 集成的 Bug 修复/代码改进 (#10144)
- beautifulsoup4 可选依赖 (#10156)
- 修复 Qdrant aquery 混合搜索 (#10159)
- 使 hash 成为一个 @property (#10163)
- 修复:poetry 安装 llama-index[postgres] 时的 bug (#10171)
- [文档] 更新 jaguar 向量存储文档 (#10179)
- 移除对未发布的 finish_message 的使用 (#10188)
- Lantern 向量存储文档更新 (#10192)
- 修复 multi_document_agents.ipynb 中的拼写错误 (#10196)
[0.9.34] - 2024-01-19#
新特性#
- 添加 SageMakerEndpointLLM (#10140)
- 添加了对 Qdrant 过滤器的支持 (#10136)
Bug 修复/小改进#
- 更新 Bedrock utils 支持 Claude 2:1 (#10139)
- Bug 修复:使用 multiprocessing 时的死锁 (#10125)
[0.9.33] - 2024-01-17#
新特性#
- 添加 RankGPT 作为后处理器 (#10054)
- 确保与新 Pinecone 客户端版本分支的向后兼容性 (#9995)
- 递归检索器全搞定 (#10019)
Bug 修复/小改进#
- Bug 修复:在包含逗号的表格上使用 markdown element parser 时的问题 (#9926)
- 扩展自动检索 notebook (#10065)
- 更新 llm_generators 中的属性名称 (#10070)
- jaguar 向量存储在 add() 方法中向 add_kwargs 添加 text_tag (#10057)
[0.9.32] - 2024-01-16#
新特性#
- 添加了查询时行检索 + 修复结构化数据查询管道的小改进 (#10061)
- 带有 Context 的 ReActive Agents + 更新过期链接 (#10058)
[0.9.31] - 2024-01-15#
新特性#
- 向查询管道添加选择器和路由器 (#9979)
- 向 Qdrant 向量存储添加稀疏搜索支持 (#10041)
- 添加 Tonic 评估器 (#10000)
- 向 Firestore 文档存储添加异步支持 (#9983)
- 实现 mongodb 文档存储的 put_all 方法 (#10014)
Bug 修复/小改进#
- 根据 max_string_length 正确截断 SQL 结果 (#10015)
- 修复 node.resolve_image() 处理 base64 字符串的问题 (#10026)
- 修复 Cohere 系统提示角色 (#10020)
- 移除 SentenceSplitter 中冗余的 token 计数操作 (#10053)
[0.9.30] - 2024-01-11#
新特性#
- 实现使用嵌入进行语义分割的节点解析器 (#9988)
- 添加 Anyscale Embedding 模型支持 (#9470)
Bug 修复/小改进#
- 小改进:修复 pandas get prompt (#10001)
- 修复:token 计数 bug (#9912)
- 将 jinja2 版本从 3.1.2 提高到 3.1.3 (#9997)
- 修复 Qdrant 混合搜索的边缘情况 (#9993)
- Bug 修复:sphinx 生成错误 (#9944)
- 修复:CodeSplitter 中 language 在赋值前使用的问题 (#9987)
- 修复 "Use a Text Splitter…" 部分中 "text_parser" 名称不一致的问题 (#9980)
- :bug: 修复批量大小 (#9982)
- 向查询管道添加自动异步执行 (#9967)
- :bug: 修复 init (#9977)
- 使用 SimpleDirectoryReader 进行并行加载 (#9965)
- 不要在 Milvus 中强制删除索引 (#9974)
[0.9.29] - 2024-01-10#
新特性#
- 添加了对 together.ai 模型支持 (#9962)
- 添加了对批量 Redis/Firestore kvstores 以及异步 Firestore kvstore 的支持 (#9827)
- Parallelize IngestionPipeline.run() (#9920)
- 添加新的查询管道组件:function, argpack, kwargpack (#9952)
Bug 修复/小改进#
- 更新可选的 langchain 导入以避免警告 (#9964)
- 如果嵌入空节点则抛出错误 (#9953)
[0.9.28] - 2024-01-09#
新特性#
- 添加了对 Nvidia TenorRT LLM 的支持 (#9842)
- 允许在 agent 构建期间设置 tool_choice (#9924)
- 为 QueryPipeline 添加流式传输支持 (#9919)
Bug 修复/小改进#
- 为 llama-index 读取器设置一致的文档 ID (#9923, #9916)
- 移除 HuggingFaceEmbedding 中不必要的模型输入 (#9922)
- 将 tool_choice 标志传播到下游 API (#9901)
- 向 chat memory from_defaults() 添加 chat_store_key (#9928)
[0.9.27] - 2024-01-08#
新特性#
- 添加查询管道 (#9908)
- 特性:Azure 多模态 (修复: #9471) (#9843)
- 添加 PostgreSQL Docker (#9906)
- Vectara 自动检索器 (#9865)
- Redis Chat Store 支持 (#9880)
- 将更多类移至 core (#9871)
Bug 修复/小改进/更小特性#
- 将 tool_choice 标志传播到下游 API (#9901)
- 从 Faiss 查询中过滤掉负索引 (#9907)
- 为 Qdrant payloads 添加 NE 过滤器 (#9897)
- 修复 MyScale 查询结果中错误的 ID 分配 (#9900)
- Qdrant 文本匹配过滤器 (#9895)
- 混合搜索的 Fusion top k (#9894)
- 修复 (#9867) sync_to_async 以避免在异步调用期间阻塞 (#9869)
- 传递给 compute_scores 的单个节点返回浮点值 (#9866)
- 移除额外的 linting 步骤 (#9878)
- 添加 Vectara 链接 (#9886)
[0.9.26] - 2024-01-05#
新特性#
- 为专用的聊天内存存储添加了 BaseChatStore 和 SimpleChatStore 抽象 (#9863)
- 启用将自定义 tree_sitter 解析器传递给 CodeSplitter (#9845)
- 创建了 BaseAutoRetriever 基类,允许其他检索器扩展到自动模式 (#9846)
- 添加了对 Nvidia Triton LLM 的支持 (#9488)
- 添加 DeepEval 一键式可观测性 (#9801)
Bug 修复/小改进#
- 更新了 guidance 集成以与最新版本配合使用 (#9830)
- 使 doctores/ingestion pipeline 的文本存储可选 (#9847)
- 为文档添加缺失的 sphinx-automodapi 依赖 (#9852)
- 在 Weaviate 查询结果中返回实际节点 ID (#9854)
- 向 LangChainLLM 添加提示格式 (#9844)
[0.9.25] - 2024-01-03#
新特性#
- 为数据集生成添加并发限制 (#9779)
- 新的 DeepEval 一键式可观测性处理器 (#9801)
- 添加 jaguar 向量存储 (#9754)
- 添加 beta 多模态 ReAct agent (#9807)
Bug 修复/小改进#
- 将 OpenAI 嵌入的默认批量大小更改为 100 (#9805)
- 正确使用批量大小进行 Qdrant upserts (#9814)
- _verify_source_safety 使用 AST 而非正则表达式进行适当的安全检查 (#9789)
- 在元素节点解析器中使用提供的 LLM (#9776)
- 更新了传统向量数据库加载函数,使其更健壮 (#9773)
- 在 AzureOpenAI 中使用提供的 http 客户端 (#9772)
[0.9.24] - 2023-12-30#
新特性#
- 为 BEIR 评估添加 reranker (#9743)
- 添加 Pathway 集成。(#9719)
- 自定义 agent 实现 + notebook (#9746)
Bug 修复/小改进#
- 修复 vllm 的束搜索:添加缺失参数 (#9741)
- 修复混合搜索的 alpha (#9742)
- 修复 token 计数器 (#9744)
- BM25 tokenizer 小写 (#9745)
[0.9.23] - 2023-12-28#
Bug 修复/小改进#
- 文档:修复 qdrant_hybrid.ipynb 中的拼写错误 (#9729)
- 使 LLM completion program 更通用 (#9731)
- 重构空集合的 MM 向量存储和索引 (#9717)
- 添加 IF 语句以使用 "Select" 检查 Schema (#9712)
- 允许在 download_module 和 download_llama_pack 中跳过模块加载 (#9734)
[0.9.22] - 2023-12-26#
新特性#
- 向 SimpleDirectoryReader 添加 .iter_data() 方法 (#9658)
- 向 Ollama LLM 添加异步支持 (#9689)
- 扩展 Pinecone 过滤器支持,增加 in 和 not in (#9683)
Bug 修复/小改进#
- 提高 BM25Retriever 性能 (#9675)
- 改进 Qdrant 混合搜索错误处理 (#9707)
- 修复 ChromaVectorStore 中的 None 处理 (#9697)
- 修复 PostgreSQL schema 不存在时的创建问题 (#9712)
[0.9.21] - 2023-12-23#
新特性#
- 添加 Zilliz Cloud 作为托管索引 (#9605)
Bug 修复/小改进#
- Bedrock 客户端和 LLM 修复 (#9671, #9646)
[0.9.20] - 2023-12-21#
新特性#
- 添加 insert_batch_size 以限制创建索引时内存中持有的嵌入数量,默认为 2048 (#9630)
- 改进自动检索 (#9647)
- 可配置的节点 ID 生成函数 (#9574)
- 引入 action input parser (#9575)
- Qdrant 稀疏向量支持 (#9644)
- 在摄取管道中引入 upserts 和 delete (#9643)
- 添加 Zilliz Cloud Pipeline 作为托管索引 (#9605)
- 通过 VertexAI 添加对 Google Gemini 模型支持 (#9624)
- 支持在自动检索器上允许附加元数据过滤器 (#9662)
Bug 修复/小改进#
- 修复 LM Format Enforcer notebooks 中的 pip install 命令 (#9648)
- 修复更多链接和文档 (#9633)
- 一些 Bedrock 小改进和修复 (#9646)
[0.9.19] - 2023-12-20#
新特性#
- 新的 llama 数据集 LabelledEvaluatorDataset & LabelledPairwiseEvaluatorDataset (#9531)
[0.9.18] - 2023-12-20#
新特性#
- 多文档自动检索指南 (#9631)
Bug 修复/小改进#
- 修复(vllm):使 Vllm 的 'complete' 方法与其他 LLM 类行为一致 (#9634)
- 修复文档链接和其他文档问题 (#9632)
[0.9.17] - 2023-12-19#
新特性#
- [示例] 添加用户反馈 (#9601)
- 特性:Cohere ReRank 检索评估的相关性指标 (#9495)
Bug 修复/小改进#
- 修复 Gemini 聊天模式 (#9599)
- 修复 types-protobuf 作为主要依赖的问题 (#9595)
- 向 TextEmbeddingInference 类添加一个可选的 auth token (#9606)
- 修复:out of index 获取最新工具调用 (#9608)
- 修复(azure_openai.py):向子类覆盖添加缺失的 return (#9598)
- 修复 Ollama API 调用中 'formatted' 和 'format' 参数混淆的问题 (#9594)
[0.9.16] - 2023-12-18#
新特性#
- Agent 重构:逐步执行 (#9584)
- 添加 OpenRouter,带有 Mixtral demo (#9464)
- 向 Neo4j 向量存储添加混合搜索 (#9530)
- 为 Google Semantic Retriever 添加 auth service accounts 支持 (#9545)
Bug 修复/小改进#
- 修复 LLM.system_prompt 缺失 default=None 的问题 (#9504)
- 修复 #9580:正确合并元数据 (#9582)
- 集成:Gradient[嵌入,LLM] - sdk 升级 (#9528)
- 将 mixtral 8x7b 模型添加到 Anyscale 可用模型 (#9573)
- Gemini 模型检查 (#9563)
- 使用最新更改更新 OpenAI 微调 (#9564)
- 修复/重新引入 WHERE 过滤器到 PgVectorStore 的稀疏查询 (#9529)
- 将 Ollama API 更新到 ollama v0.1.16 (#9558)
- Ollama:剥离无效的 formatted 选项 (#9555)
- 在 optimum push #9541 中添加设备 (#9554)
- Gemini Embedding 的标题与内容差异 (#9547)
- 修复 Pydantic 字段为 float (#9542)
[0.9.15] - 2023-12-13#
新特性#
- 添加了对 Google Gemini 文本+视觉模型的全面支持 (#9452)
- 添加了新的 Google Semantic Retriever (#9440)
- 向 OpenAI Assistants 添加了 from_existing() 方法 + 异步支持 (#9367)
Bug 修复/小改进#
- 修复 HuggingFace LLM 系统提示和消息到提示的转换 (#9463)
- 修复 Ollama additional kwargs 使用问题 (#9455)
[0.9.14] - 2023-12-11#
新特性#
- 添加 MistralAI LLM (#9444)
- 添加 MistralAI 嵌入 (#9441)
- 添加 Ollama Embedding 类 (#9341)
- 添加 FlagEmbeddingReranker 用于重排序 (#9285)
- 特性:PgVectorStore 支持高级元数据过滤 (#9377)
- 向 SQL 查询引擎添加 sql_only 参数,以避免执行 SQL (#9422)
Bug 修复/小改进#
- 特性/PgVector 支持自定义 hnsw.ef_search 和 ivfflat.probes (#9420)
- 修复 F1 分数定义,更新版权年份 (#9424)
- 将 Replicate 多模态模型的多个图像输入从错误改为警告 (#9360)
- 移除了 GPT 许可的 aiostream 依赖 (#9403)
- 修复使用 Cohere 模型进行 BedrockEmbedding 的结果问题 (#9396)
- 仅在 react agent 中捕获有效的工具名称 (#9412)
- 修复 Azure Cosmos 中 top_k 被乘以 10 的问题 (#9438)
- 修复 OpenSearch 的混合搜索问题 (#9430)
重大变更#
- 更新了基础 LLM 接口以匹配 LLMPredictor (#9388)
- 弃用 LLMPredictor (#9388)
[0.9.13] - 2023-12-06#
新特性#
- 为 LabelledRagDataset 添加批量预测支持 (#9332)
Bug 修复/小改进#
- 修复 Faiss 向量存储的保存和加载问题 (#9330)
[0.9.12] - 2023-12-05#
新特性#
- 向 OpenAI/Azure 添加了一个选项 reuse_client,以帮助处理异步超时。设置为 False 可看到改进 (#9301)
- 添加了对 vLLM LLM 的支持 (#9257)
- 添加对 Python 3.12 的支持 (#9304)
- 支持 claude-2.1 模型名称 (#9275)
Bug 修复/小改进#
- 修复 Bedrock Cohere 嵌入的嵌入格式 (#9265)
- 在 Weaviate 向量存储中使用 delete_kwargs 进行过滤 (#9300)
- 修复 Qdrant 客户端自动构建问题 (#9267)
[0.9.11] - 2023-12-03#
新特性#
- 使 LabelledRagDataset 中的 reference_contexts 可选 (#9266)
- 重组 download module (#9253)
- 向摄取管道添加文档管理 (#9135)
- 添加 LabelledRagDataset 的文档 (#9228)
- 添加 LabelledRagDataset 的提交模板 notebook 和其他文档更新 (#9273)
Bug 修复/小改进#
- 将 InstructorEmbedding 的 numpy 转换为 list (#9255)
[0.9.10] - 2023-11-30#
新特性#
- 向量存储的高级元数据过滤器 (#9216)
- Amazon Bedrock 嵌入新模型 (#9222)
- 添加 PromptLayer 回调集成 (#9190)
- 重用 OpenAIAssistant 的文件 ID (#9125)
重大变更/弃用#
- 弃用 ExactMatchFilter (#9216)
[0.9.9] - 2023-11-29#
新特性#
- 为 LlamaDataset 添加新抽象 (#9165)
- 为 AstraDBVectorStore 添加元数据过滤和 MMR 模式支持 (#9193)
- 允许最新的 scikit-learn 版本 (#9213)
重大变更/弃用#
- 添加 LocalAI demo 并开始弃用周期 (#9151)
- 弃用 evaluation module 的 QueryResponseDataset 和 DatasetGenerator (#9165)
Bug 修复/小改进#
- 修复 download_utils.py 指向错误 repo 的 bug (#9215)
- 在 AzureOpenAILLM 中使用 azure_deployment kwarg (#9174)
- 修复 AstraDBVectorStore 集成的相似度分数返回问题 (#9193)
[0.9.8] - 2023-11-26#
新特性#
- 向支持的 ObjectIndex 添加 persist 和 persist_from_dir 方法 (#9064)
- 添加异步元数据提取 + 管道支持 (#9121)
- 重新添加对节点中开始/结束字符索引的支持 (#9143)
Bug 修复/小改进#
- 修复 global service context 中某些 kwargs 未正确设置的问题 (#9137)
- 修复 system/prefix 消息过大时 memory.get() 的小问题 (#9149)
- global service context 的小修复 (#9137)
[0.9.7] - 2023-11-24#
新特性#
- 添加对 PGVectoRsStore 的支持 (#9087)
- 出于安全考虑强制要求 requests>=2.31,同时解除 urllib3 的限制 (#9108)
Bug 修复/小改进#
- 增加了 context chat engine 的默认内存 token 限制 (#9123)
- 向 CondensePlusContextChatEngine 添加了一个 system prompt,它将被添加到 context_prompt 的开头 (#9123)
- 修复 CondensePlusContextChatEngine 未正确使用聊天历史记录的 bug (#9129)
[0.9.6] - 2023-11-22#
新特性#
- 向 OpenAI LLMs 添加 default_headers 参数 (#9090)
- 添加了对 download_llama_pack() 和 LlamaPack 集成的支持
- 添加了对 llamaindex-cli 命令行工具的支持
Bug 修复/小改进#
- 将 huggingface 嵌入的 normalize 存储为 bool (#9089)
[0.9.5] - 2023-11-21#
Bug 修复/小改进#
- 修复 AzureOpenAI 推断流块是否为工具调用的逻辑 bug (#9018)
新特性#
- FastEmbed 嵌入提供者 (#9043)
- 对 OpenAILike 进行更精确的测试 (#9026)
- 向每个检索器添加回调管理器 (#8871)
- 使用 OpenAILike 绕过 max_tokens 推断的能力 (#9032)
Bug 修复/小改进#
- 修复在估计块大小时格式化聊天提示模板的 bug (#9025)
- 沙盒化 Pandas 执行,修复 CVE-2023-39662 (#8890)
- 恢复 Python 3.8 的 mypy (#9031)
- 放宽 dataclasses-json 版本范围,并移除 pandas 中不必要的 jinja2 extra (#9042)
[0.9.4] - 2023-11-19#
新特性#
- 添加 CondensePlusContextChatEngine (#8949)
更小特性/Bug 修复/小改进#
- 修复 OpenAIAgent 将错误插入聊天历史记录的 bug (#9000)
- 修复 LiteLLM 和新 OpenAI 客户端的各种 bug (#9003)
- 向 perplexity LLM 添加 context window 属性 (#9012)
- 重新向 service context 添加 node_parser 属性 (#9013)
- 重构 MM 检索器类 (#8998)
- 修复 SupabaseVectorIndexDemo 上的 TextNode 实例化问题 (#8994)
[0.9.3] - 2023-11-17#
新特性#
- 添加 perplexity LLM 集成 (#8734)
Bug 修复/小改进#
- 修复新 OpenAI 客户端的 token 计数问题 (#8981)
- 修复 PostgreSQL 向量数据库中的小 Pydantic bug (#8962)
- 修复 HierarchicalNodeParser 中 chunk_overlap 和 doc_id 的 bug (#8983)
[0.9.2] - 2023-11-16#
新特性#
- 添加了新的 Multi-Modal Rag Evaluation notebook 指南 (#8945)
- 添加 MultiModalRelevancyEvaluator 和 MultiModalFaithfulnessEvaluator (#8945)
[0.9.1] - 2023-11-15#
新特性#
- 添加 Cohere Reranker 微调 (#8859)
- AzureOpenAI LLM 支持自定义 httpx 客户端 (#8920)
Bug 修复/小改进#
- 修复 set_global_service_context 未传播设置的问题 (#8940)
- 修复使用 Google Palm 嵌入构建索引的问题 (#8936)
- 修复解析没有文本的 ImageDocuments/Nodes 的小问题 (#8938)
- 修复 Astra DB 大数据插入的问题 (#8937)
- 优化 agent 的 QueryEngineTool (#8933)
[0.9.0] - 2023-11-15#
新特性/重大变更/弃用#
- 用于摄取和转换数据的新 IngestionPipeline 概念
- 数据摄取和转换现在自动缓存
- 更新了节点解析/文本分割/元数据提取模块的接口
- 默认分词器的更改,以及自定义分词器
- 使用 PyPi 进行打包/安装更改(减少臃肿,新的安装选项)
- 更可预测和一致的导入路径
- 此外,在 beta 版中:用于处理文本和图像的多模态 RAG 模块!
- 更多详情请访问:
https://medium.com/@llama_index/719f03282945
[0.8.69.post1] - 2023-11-13#
Bug 修复/小改进#
- 将 Weaviate 最大删除大小增加到最多 10,000 (#8887)
- 最后的 Pickling 残留修复 (#8902)
[0.8.69] - 2023-11-13#
Bug 修复/小改进#
- 修复加载 Pickled 对象时的 bug (#8880)
- 修复 download_loader 中 custom_path 与 custom_dir 的问题 (#8865)
[0.8.68] - 2023-11-11#
新特性#
- OpenAI Assistant Agent + 高级检索 cookbook (#8863)
- 添加检索 API 基准测试 (#8850)
- 添加 JinaEmbedding 类 (#8704)
Bug 修复/小改进#
- 改进 OpenAI 的默认超时/重试 (#8819)
- 重新添加 OpenAI 的密钥验证 (#8819)
- 禁用自动 LLM/嵌入模型下载,给出信息性错误 (#8819)
- 修复 OpenAI Assistant 工具创建 + 检索 notebook (#8862)
- 快速修复 Replicate 多模态示例 (#8861)
- 修复:路径被视为隐藏 (#8860)
- 修复 Replicate 多模态 LLM + notebook (#8854)
- 特性/引用元数据 (#8722)
- 修复 SimpleMultiModalQueryEngine 的 ImageNode 类型从 NodeWithScore 转换的问题 (#8844)
[0.8.67] - 2023-11-10#
新特性#
- 高级多模态检索示例和文档 (#8822, #8823)
错误修复 / 小改进#
- 修复
CitationQueryEngine
的检索器节点后处理器 (#8818) - 修复大多数场景下
cannot pickle 'builtins.CoreBPE' object
的错误 (#8835)
[0.8.66] - 2023-11-09#
新特性#
- 在
OpenAIPydanticProgram
中支持使用新 OpenAI 客户端并行调用函数 (#8793)
错误修复 / 小改进#
- 修复使用新 OpenAI 客户端的 pydantic 程序中的错误 (#8793)
- 修复无法列出 fsspec 对象的问题 (#8795)
[0.8.65] - 2023-11-08#
新特性#
OpenAIAgent
并行函数调用 (#8738)
新特性#
- 正确支持 Hugging Face 推荐模型 (#8784)
错误修复 / 小改进#
- 修复
embeddings.__all__
缺失导入的问题 (#8779)
重大变更 / 弃用#
- 在
OpenAI(LLM)
中,使用tool_choice
替换function_call
,使用tool
替换functions
(#8738) - 弃用
to_openai_function
,改用to_openai_tool
(#8738)
[0.8.64] - 2023-11-06#
新特性#
OpenAIAgent
并行函数调用 (#8738)- 添加 AI 助手代理 (#8735)
- OpenAI GPT4v 抽象 (#8719)
- 添加对
Lantern
VectorStore 的支持 (#8714)
错误修复 / 小改进#
- 修复 elastic search 向量存储返回零节点的问题 (#8746)
- 为
SimpleDirectoryReader
循环添加 try/except,避免处理单个文档时崩溃 (#8744) - 修复异步嵌入中的
deployment_name
问题 (#8748)
[0.8.63] - 2023-11-05#
新特性#
- 添加了对最新
openai
客户端包的原生同步和异步客户端支持 (#8712) - 添加了对
AzureOpenAIEmbedding
的支持 (#8712)
错误修复 / 小改进#
- 修复使用
download_loader
时关于 "no host supplied" 的错误 (#8723)
重大变更#
OpenAIEmbedding
不再支持 azure,已移至AzureOpenAIEmbedding
类 (#8712)
[0.8.62.post1] - 2023-11-05#
重大变更#
- 添加新的 devday 模型 (#8713)
- 将
SimpleMongoReader
的max_docs
参数从构造函数移至lazy_load_data()
方法 (#8686)
[0.8.61] - 2023-11-05#
新特性#
- [实验性] 超参数调优器 (#8687)
错误修复 / 小改进#
- 修复 CohereAIModelName 类中的拼写错误:cohere light 模型缺少 v3 (#8684)
- 更新 deeplake.py (#8683)
[0.8.60] - 2023-11-04#
新特性#
- prompt 优化指南 (#8659)
- VoyageEmbedding (#8634)
- 为
YoutubeTranscriptReader
添加多语言支持 (#8673) - 情感 prompt 指南 (#8674)
错误修复 / 小改进#
- 将 mistral 7b instruct v0.1 添加到可用的 anyscale 模型中 (#8652)
- 使 pgvector 的设置(扩展、模式和表创建)成为可选 (#8656)
- 允许为 Pinecone 向量存储初始化 stores_text 变量 (#8633)
- 修复:azure ad 支持 (#8667)
- 修复多线程环境中的 nltk 错误 (#8668)
- 修复 cohereai notebook 中的 google colab 链接 (#8677)
- 将 max_tokens 传递给
Cohere
llm (#8672)
[0.8.59] - 2023-11-02#
- Deepmemory 支持 (#8625)
- 添加 CohereAI 嵌入 (#8650)
- 添加 Azure AD (Microsoft Entra ID) 支持 (#8667)
[0.8.58] - 2023-11-02#
新特性#
- 添加
lm-format-enforcer
集成以支持结构化输出 (#8601) - Google Vertex 支持 (#8626)
[0.8.57] - 2023-10-31#
新特性#
- 添加
VoyageAIEmbedding
集成 (#8634) - 添加微调评估器 notebook (#8596)
- 添加
SingleStoreDB
集成 (#7991) - 添加对 ChromaDB PersistentClient 的支持 (#8582)
- 添加 DataStax Astra DB 支持 (#8609)
错误修复 / 小改进#
- 更新 Weaviate 中的 dataType (#8608)
- 在采用混合 retriever_mode 的知识图谱索引中,
- 当 'No Relationship found' 时返回通过关键词搜索找到的节点
- 修复 chat engine 中超出上下文长度的错误 (#8530)
- 从知识图谱中检索所有三元组的实际内容 (#8579)
- 在采用混合 retriever_mode 的
KnowledgeGraphIndex
中,当嵌入未能找到关系时,返回通过关键词找到的节点 (#8575) - 优化 retriever tool 的内容并进行次要错误修复 (#8588)
[0.8.56] - 2023-10-30#
新特性#
- 添加 Amazon
BedrockEmbedding
(#8550) - 将
HuggingFaceEmbedding
迁移,以便将Pooling
枚举作为池化中心 (#8467) - 添加 IBM WatsonX LLM 支持 (#8587)
错误修复 / 小改进#
- [Bug] 修复 Clarifai 类 (#8529)
- 修复 bedrock llm 的重试问题 (#8528)
- 修复:VectorStore 的 QueryResult 始终将保存的 Node 作为 TextNode 返回的问题 (#8521)
- 为 SimpleDirectoryReader 添加默认 file_metadata,以获取许多后处理器使用的基本元数据 (#8486)
- 处理 chromadb 中元数据包含 None 值的情况 (#8584)
[0.8.55] - 2023-10-29#
新特性#
- 允许 prompts 通过
function_mappings
接受函数 (#8548) - 添加高级 prompt + "RAG 的 prompt 工程" notebook (#8555)
- 利用 Replicate API 服务 LLaVa 模型 (#8539)
错误修复 / 小改进#
- 更新 pull request 模板,包含 google colab 支持 (#8525)
[0.8.54] - 2023-10-28#
新特性#
- 展示如何在结构化输出上微调 llama2 的 notebook (#8540)
- 添加了 GradientAIFineTuningHandler
- 将 pydantic_program_mode 添加到 ServiceContext
- 使用 LlamaIndex 初始化多模态检索 (#8507)
错误修复 / 小改进#
- 为
ChatEngine
使用模式.md
文档添加缺失的导入 (#8518) - :bug: 修复了异步添加 (#8531)
- 修复:在 usage_pa… 中添加所需的 CondenseQuestionChatEngine 导入 (#8518)
- 为 LongLLMLingua.ipynb 添加导入 LongLLMLinguaPostprocessor (#8519)
[0.8.53] - 2023-10-27#
新特性#
- 文档重构 (#8500) 文档组织结构的全面修订。主要变更
- 添加了全新的“理解”部分
- 添加了全新的“优化”部分
- 全面修订了“入门”内容
- 将模块指南分类并移至单独部分
[0.8.52] - 2023-10-26#
新特性#
- 添加 longllmlingua (#8485)
- 为 notebook 添加 google colab 支持 (#7560)
错误修复 / 小改进#
- 调整 Cassandra VectorStore 构造函数通过 cassio.init 进行数据库连接 (#8255)
- 允许在托管索引中配置 service context 和 storage context (#8487)
[0.8.51.post1] - 2023-10-25#
新特性#
- 为 Tesla 10k RAG 添加 Llava 多模态问答示例 (#8271)
- 修复 react chat agent 上的流式传输未按预期工作的问题 (#8459)
错误修复 / 小改进#
- 补丁:为 router query engine 的响应元数据添加选定结果,修复错误 (#8483)
- 添加 Jina AI 嵌入 notebook + huggingface 嵌入修复 (#8478)
- 为 replicate 添加
is_chat_model
(#8469) - 将
toml-sort
重新添加回pre-commit
(#8267) - 为本地
test_s3_kvstore
添加LocationConstraint
(#8263)
[0.8.50] - 2023-10-24#
新特性#
- 在不同模块中暴露 prompts(query engine、synthesizer 等)(#8275)
[0.8.49] - 2023-10-23#
新特性#
- 新的 LLM 集成
- 通过
huggingface_hub[inference]
支持 Hugging Face Inference API 的conversational
,text_generation
, 和feature_extraction
端点 (#8098) - 添加 Amazon Bedrock LLMs (#8223)
- 添加 AI21 Labs LLMs (#8233)
- 添加 OpenAILike LLM 类,用于 OpenAI 兼容的 api 服务器 (#7973)
- 新的 / 更新的向量存储集成
- 添加 DashVector (#7772)
- 添加 Tencent VectorDB (#8173)
- 为 PGVectorStore 添加自定义 Postgres schema 选项,而非仅允许 public schema (#8080)
- 添加 Gradient 微调引擎 (#8208)
- 文档(FAQ):常见问题 (#8249)
错误修复 / 小改进#
- 修复
ReActAgent.stream_chat
的不一致问题 (#8147) - 弃用 GuardrailsOutputParser 的部分函数 (#8016)
- 简化依赖项 (#8236)
- LiteLLM 的错误修复 (#7885)
- 更新 Predibase LLM (#8211)
[0.8.48] - 2023-10-20#
新特性#
- 为 MyScale 向量存储添加
DELETE
功能 (#8159) - 添加 SQL Retriever (#8197)
- 添加 semantic kernel 文档格式 (#8226)
- 改进 MyScale 混合搜索并为 MyScale 向量存储添加
DELETE
(#8159)
错误修复 / 细节改进#
- 修复 ReActAgent.from_tools() 中的额外 kwargs (#8206)
- 修复提示模板中丢失的空格 (#8190)
- 移除异常时自动下载 llama2-13B 的功能 (#8225)
[0.8.47] - 2023-10-19#
新特性#
- 为 text-to-SQL 添加响应合成 (#8196)
- 添加对
LLMRailsEmbedding
的支持 (#8169) - 使用 PyTorch 推断 MPS 设备 (#8195)
- 整合查询/文本预处理 (#8189)
[0.8.46] - 2023-10-18#
新特性#
- 添加微调路由器支持 + 嵌入选择器 (#8174)
- 添加更多文档转换器 (#8156)
错误修复 / 细节改进#
- 为 huggingface 嵌入添加归一化 (#8145)
- 改进 MyScale 混合搜索 (#8159)
- 修复
FORMAT_STR
在提示中重复出现的问题 (#8171) - 添加:对 PandasQueryEngine 支持 output_kwargs={'max_colwidth': xx} (#8110)
- 修复 cohere llm 中一个参数描述的微小错误 (#8163)
- 修复 Firestore 客户端信息 (#8166)
[0.8.45] - 2023-10-13#
新特性#
- 添加对交叉编码器微调的支持 (#7705)
- 添加
QueryFusionRetriever
用于合并多个检索器 + 查询增强 (#8100) - 添加
nb-clean
到pre-commit
以最小化 PR diff (#8108) - 支持
TextEmbeddingInference
嵌入 (#8122)
错误修复 / 细节改进#
- 改进
BM25Retriever
接口以接受BaseNode
对象 (#8096) - 修复
BM25Retriever
分词器未能按预期工作的 bug (#8096) - 使 mypy 在 Python 3.8 中通过 (#8107)
ReActAgent
添加缺失的super().__init__
调用 (#8125)
[0.8.44] - 2023-10-12#
新特性#
- 添加 pgvector sql 查询引擎 (#8087)
- 添加 HoneyHive 一键可观测性 (#7944)
- 添加对 SQLAlchemy V1 和 V2 的支持 (#8060)
[0.8.43.post1] - 2023-10-11#
新特性#
- 将
codespell
移至pre-commit
(#8040) - 添加
prettier
用于除.py
以外扩展名的自动格式化 (#8072)
错误修复 / 细节改进#
- 修复
HuggingFaceLLM
中遗漏的 f-str (#8075) - 放宽 numpy/panadas 依赖限制
[0.8.43] - 2023-10-10#
新特性#
- 添加对
GradientEmbedding
嵌入模型的支持 (#8050)
错误修复 / 细节改进#
- 为
HuggingFaceLLM
添加messages_to_prompt
kwarg (#8054) - 改进开源模型的选择和 sql 解析 (#8054)
- 修复代理为工具生成过多 kwargs 的 bug (#8054)
- 改进选择 + 问题生成的提示和调试功能 (#8056)
[0.8.42] - 2023-10-10#
新特性#
LocalAI
更直观的模块级变量名 (#8028)- 启用
codespell
用于 markdown 文档 (#7972) - 添加非结构化表格元素节点解析器 (#8036)
- 添加:Qdrant 向量存储的异步 upserting (#7968)
- 添加 cohere llm (#8023)
错误修复 / 细节改进#
- 解析 react 代理答案中的多行输出 (#8029)
- 为关键字
as_retriever
调用添加正确命名的 kwargs (#8011) - 更新 RAGAS LlamaIndex 集成参考 (#8035)
- Vectara bug 修复 (#8032)
- 修复:ChromaVectorStore 可能会尝试添加超过 chromadb 批次限制的项目 (#8019)
- 修复 Mbox reader 中的 get_content 方法 (#8012)
- 在 WeaviateVectorStore 中应用 kwarg 过滤器 (#8017)
- 避免 ZeroDivisionError (#8027)
LocalAI
直观的模块级变量名 (#8028)- zep/fix: imports & typing (#8030)
- 重构:使用
str.join
(#8020) - 为节点解析使用适当的 metadata str (#7987)
[0.8.41] - 2023-10-07#
新特性#
- You.com 检索器 (#8024)
- 使用
metadata_names
参数从 mongodb 中拉取字段到元数据 (#8001) - 简化
LocalAI.__init__
并保留相同行为 (#7982)
错误修复 / 细节改进#
- 使用最长的元数据字符串进行元数据感知文本分割 (#7987)
- 处理 mongodb reader 中的字符串列表 (#8002)
- 移除
OpenAI.class_type
,因为它已是无效代码 (#7983) - 修复
HuggingFaceLLM.device_map
类型提示 (#7989)
[0.8.40] - 2023-10-05#
新特性#
- 添加对
Clarifai
LLM 的支持 (#7967) - 添加对函数微调的支持 (#7971)
破坏性变更#
- 更新文档摘要索引 (#7815)
- 将默认检索模式更改为 embedding
- 在索引时默认将摘要嵌入到向量存储中(而不是动态计算嵌入)
- 支持在 llm retriever 中配置 top k
[0.8.39] - 2023-10-03#
新特性#
- 添加对带有查询引擎的 pydantic 对象输出的支持 (#7893)
- 添加
ClarifaiEmbedding
类以支持嵌入 (#7940) - Markdown 节点解析器、平面文件阅读器和简单文件节点解析器 (#7863)
- 添加对 mongdb atlas
$vectorSearch
的支持 (#7866)
错误修复 / 细节改进#
- 添加对在 discord reader 中使用消息元数据的支持 (#7906)
- 修复
LocalAI
无需max_tokens
即可进行聊天的问题 (#7942) - 添加
codespell
用于自动化检查 (#7941) ruff
现代化和自动修复 (#7889)- 实现自己的 SQLDatabase 类 (#7929)
- 更新 LlamaCPP context_params 属性 (#7945)
- 修复重复嵌入问题 (#7949)
- 添加
codespell
工具以强制执行良好的拼写 (#7941) - 支持
venv
下本地使用mypy
(#7952) - Vectara - 微小更新 (#7954)
- 在 CI 中避免
pydantic
重装 (#7956) - 将 tree_sitter_languages 移入 data_requirements.txt (#7955)
- 为
PGVectorStore
添加cache_okay
参数以帮助抑制 TSVector 警告 (#7950)
[0.8.38] - 2023-10-02#
新特性#
- 更新
KeywordNodePostprocessor
以使用 spacy 支持更多语言 (#7894) LocalAI
支持全局或按查询区分/chat/completions
与/completions
(#7921)- 添加关于使用 REBEL + Wikipedia 过滤构建知识图谱的 notebook (#7919)
- 添加对
ElasticsearchEmbedding
的支持 (#7914)
[0.8.37] - 2023-09-30#
新特性#
- 支持
LocalAI
LLM (#7913) - 添加验证以防止块大小配置错误 (#7917)
错误修复 / 细节改进#
- 简化 NL SQL 响应到 SQL 解析,并扩展 NL SQL 提示 (#7868)
- 提高 vectordb 集成的向量存储检索速度 (#7876)
- 添加替换 {{ 和 }} 的功能,并修复 JSON 解析递归问题 (#7888)
- 优化 JSON 解码错误提示 (#7891)
- 优化 LLM 未提供 SQL 时产生的 SQL 错误提示 (#7900)
- 优化
HuggingFaceLLM
的ImportError
提示 (#7904) - eval fixes: 修复数据集响应生成,为评估器添加分数 (#7915)
[0.8.36] - 2023-09-27#
新特性#
- 添加“从头构建 RAG notebook” - OSS/本地 (#7864)
错误修复 / 细节改进#
- 修复 elasticsearch 混合评分问题 (#7852)
- 将
get_color_mapping
和print_text
的 Langchain 依赖替换为内部实现 (#7845) - 修复 azure 异步流式传输问题 (#7856)
- 避免 sub question generator 中的
NotImplementedError()
(#7855) - 修复 predibase 初始化问题 (#7859)
- 提高 langchain 最低版本并更改 langchain 的提示导入方式 (#7862)
[0.8.35] - 2023-09-27#
错误修复 / 细节改进#
- 修复 recursive retriever 中丢弃 textnode 的问题 (#7840)
- 当 callback_manager 为 None 时,在代理与其 llm 之间共享 callback_manager (#7844)
- 修复 pandas query engine (#7847)
[0.8.34] - 2023-09-26#
新特性#
- 添加
Konko
LLM 支持 (#7775) - 添加上下文前/后句子 (#7821)
- 通过 OpenAI 库实现 EverlyAI 与 LlamaIndex 的集成 (#7820)
- 将 Arize Phoenix tracer 添加到全局 handlers (#7835)
错误修复 / 细节改进#
- 对 ElasticSearch 向量存储返回的分数进行归一化 (#7792)
- 修复
refresh_ref_docs()
中操作顺序的 bug (#7664) - 延迟
PGVectorStore
的 postgresql 连接直到实际需要时 (#7793) - 修复
SimpleVectorStore
删除方法中与元数据过滤器相关的 KeyError (#7829) - 修复
SimpleVectorStore
删除方法中与元数据过滤器相关的 KeyError (#7831) - 解决 PyYAML 导入错误 (#7784)
- ElasticsearchStore: 更新 User-Agent + 添加示例 docker compose (#7832)
StorageContext.persist
支持Path
(#7783)- 更新 ollama.py (#7839)
- 修复 self._session_pool 的 bug (#7834)
[0.8.33] - 2023-09-25#
新特性#
- 添加 pairwise evaluator + benchmark auto-merging retriever (#7810)
错误修复 / 细节改进#
- embedding 类中的微小清理 (#7813)
OpenAIEmbedding
的杂项更新 (#7811)
[0.8.32] - 2023-09-24#
新特性#
- 添加对
HuggingFaceEmbedding
、InstructorEmbedding
和OptimumEmbedding
的原生支持 (#7795) - 为 MyScale 向量存储添加元数据过滤和混合搜索 (#7780)
- 允许为 Milvus 设置自定义文本字段名称 (#7790)
- 为
VectorIndexAutoRetriever
添加对vector_store_query_mode
的支持 (#7797)
错误修复 / 细节改进#
- 更新
LanceDBVectorStore
以处理分数和距离 (#7754) - 在
CondenseQuestionChatEngine
中将 LLM 传递给memory_cls
(#7785)
[0.8.31] - 2023-09-22#
新特性#
- 添加 pydantic 元数据提取器 (#7778)
- 允许用户在 azure cognitive 向量存储中设置嵌入维度 (#7734)
- 添加 semantic similarity evaluator (#7770)
错误修复 / 细节改进#
- 📝文档:更新 Chatbot 教程和 Notebook (#7767)
- 修复处理空节点的 response synthesizers (#7773)
- 修复 auto vector retriever 中的
NotImplementedError
(#7764) - “KnowledgeGraphQueryEngine”中多个 kwargs 值的 bug 修复 (#7763)
- 允许设置 azure cognitive search 维度 (#7734)
- 将 service context 传递给 dataset generator 的索引 (#7748)
- 修复 selector templates 的 output parsers (#7774)
- 更新 Chatbot_SEC.ipynb (#7711)
- 对 cassandra 测试进行 linter/typechecker 友好改进 (#7771)
- 公开
PgVectorStore
的调试选项 (#7776) - llms/openai: 通过考虑
prompt_filter_results
字段修复 Azure OpenAI 问题 (#7755)
[0.8.30] - 2023-09-21#
新特性#
- 添加对
gpt-3.5-turbo-instruct
的支持 (#7729) - 添加对
TimescaleVectorStore
的支持 (#7727) - 添加
LongContextReorder
以解决 lost-in-the-middle 问题 (#7719) - 添加检索评估 (#7738)
错误修复 / 细节改进#
- 为 async context chat engine 添加 node post-processors (#7731)
- 为 postgres tsv 列添加唯一索引名称 (#7741)
[0.8.29.post1] - 2023-09-18#
错误修复 / 细节改进#
- 修复 embeddings 的 langchain 导入错误 (#7714)
[0.8.29] - 2023-09-18#
新特性#
- 为基础 simple vector store 添加元数据过滤 (#7564)
- 添加低级路由器指南 (#7708)
- 添加 CustomQueryEngine 类 (#7703)
错误修复 / 细节改进#
- 修复 lite-llm 中的上下文窗口元数据问题 (#7696)
[0.8.28] - 2023-09-16#
新特性#
- 添加 CorrectnessEvaluator (#7661)
- 添加对
Ollama
LLM 的支持 (#7635) - 添加
HWPReader
(#7672) - 简化 portkey LLM 接口 (#7669)
- 为
ElasticsearchStore
向量存储添加异步操作支持 (#7613) - 添加对
LiteLLM
的支持 (#7600) - 添加批处理评估运行器 (#7692)
错误修复 / 细节改进#
- 避免 async langchain embeddings 中的
NotImplementedError
(#7668) - 提高 LLM selectors 的可靠性 (#7678)
- 修复
query_wrapper_prompt
和system_prompt
在 output parsers 和 completion models 中的问题 (#7678) - 修复 citation query engine 中的节点属性继承问题 (#7675)
破坏性变更#
- 重构并更新
BaseEvaluator
接口以使其更一致 (#7661) - 使用
evaluate
函数处理通用输入 - 使用
evaluate_response
函数处理 llama index query engine 的Response
对象 - 更新现有评估器,使其命名更明确
ResponseEvaluator
->FaithfulnessEvaluator
QueryResponseEvaluator
->RelevancyEvaluator
- 旧名称保留为类别名以实现向后兼容
[0.8.27] - 2023-09-14#
新特性#
- 添加低级教程部分 (#7673)
错误修复 / 细节改进#
- default delta 应为一个 dict (#7665)
- LLMPredictor 上更好的 query wrapper 逻辑 (#7667)
[0.8.26] - 2023-09-12#
新特性#
- 添加非线性嵌入适配器 (#7658)
- 在知识微调 notebook 中添加“微调 + RAG”评估 (#7643)
错误修复 / 细节改进#
- 修复 sentence splitter 的 chunk-overlap 问题 (#7590)
[0.8.25] - 2023-09-12#
新特性#
- 添加
AGENT_STEP
回调事件类型 (#7652)
错误修复 / 细节改进#
- 允许
simple
模式与as_chat_engine()
一起工作 (#7637) - 修复 azure streaming 中的索引错误 (#7646)
- 从 llama-cpp 中移除
pdb
(#7651)
[0.8.24] - 2023-09-11#
新特性#
- 指南:通过微调记忆知识 (#7626)
- 添加自定义评估模块提示模板的能力 (#7626)
错误修复#
- 正确检测
llama-cpp-python
版本以加载默认的 GGML 或 GGUFllama2-chat-13b
模型 (#7616) - 使用
RetrieverQueryEngine.from_args()
正确传递summary_template
(#7621) - 修复 wandb callback 中的 span 类型 (#7631)
[0.8.23] - 2023-09-09#
错误修复#
- 确保 llama2 的首次聊天提示中包含上下文和系统提示 (#7597)
- 避免 refine 过程中的负块大小错误 (#7607)
- 修复分层节点解析器中小文档的关系问题 (#7611)
- 更新 Anyscale Endpoints 集成,完全支持流式传输和异步操作 (#7602)
- 更好地支持将凭据作为 LLM 构造函数参数传递到
OpenAI
、AzureOpenAI
和Anyscale
中 (#7602)
破坏性变更#
- 更新 milvus 向量存储以支持过滤器和动态模式 (#7286)
- 有关用法,请参阅更新的 notebook
- 将 NLTK 添加到核心依赖项中,以支持默认的 sentence splitter (#7606)
[0.8.22] - 2023-09-07#
新特性#
- 添加对 ElasticSearch 向量存储的支持 (#7543)
错误修复 / 细节改进#
- 修复
ElasticSearchReader
中微小的_index
bug (#7570) - 修复全局 service context 中 prompt helper 设置的 bug (#7576)
- 再次移除 openai 嵌入中的换行符 (#7588)
- 修复在 service context 中设置
query_wrapper_prompt
的微小 bug (#7585)
破坏性/弃用 API 变更#
- 清理 vector store 接口,使用
BaseNode
而不是NodeWithEmbedding
- 对于大多数用户来说,这是无操作变更
- 对于直接使用
VectorStore
抽象并手动构建NodeWithEmbedding
对象的用户,这是一个微小的破坏性变更。请直接使用设置了embedding
的TextNode
,而不是NodeWithEmbedding
。
[0.8.21] - 2023-09-06#
新特性#
- 添加嵌入适配器微调引擎 + 指南 (#7565)
- 添加对 Azure Cognitive Search 向量存储的支持 (#7469)
- 支持在 supabase 中删除 (#6951)
- 添加对 Espilla 向量存储的支持 (#7539)
- 添加对 AnyScale LLM 的支持 (#7497)
错误修复 / 细节改进#
- 在
VectorIndexAutoRetriever
中默认使用用户可配置的 top-k (#7556) - 捕获结构化响应的验证错误 (#7523)
- 修复流式 refine 模板 (#7561)
[0.8.20] - 2023-09-04#
新特性#
- 添加 Portkey LLM 集成 (#7508)
- 支持 postgres/pgvector 混合搜索 (#7501)
- 升级 recursive retriever node reference notebook (#7537)
[0.8.19] - 2023-09-03#
新特性#
- 将 list index 替换为 summary index (#7478)
- 重命名 list index 为 summary index 部分 2 (#7531)
[0.8.18] - 2023-09-03#
新特性#
- 添加 agent finetuning 指南 (#7526)
[0.8.17] - 2023-09-02#
新特性#
- 使(部分)loader 可序列化 (#7498)
- 将节点引用添加到 recursive retrieval (#7522)
错误修复 / 细节改进#
- 在分割过程中元数据过大时引发信息丰富的错误 (#7513)
- 允许在 simple node parser 中使用 langchain splitter (#7517)
[0.8.16] - 2023-09-01#
错误修复 / 细节改进#
- 修复文档中 Marvin notebook 的链接 (#7504)
- 确保
SimpleWebPageReader
中的元数据不是None
(#7499) - 修复 KGIndex 可视化问题 (#7493)
- 改进 KG Index 中的空响应 (#7493)
[0.8.15] - 2023-08-31#
新特性#
- 添加对
MarvinEntityExtractor
元数据提取器的支持 (#7438) - 为 SimpleWebPageReader 添加 url_metadata 回调 (#7445)
- 扩展回调日志事件 (#7472)
错误修复 / 细节改进#
- 仅在 OpenAI 的 text 001 嵌入模型中将换行符转换为空格 (#7484)
- 修复
KnowledgeGraphRagRetriever
对于非 nebula 索引的问题 (#7488) - 支持在
PGVectorStore
中定义嵌入维度 (#7491) - 大幅提高基础向量存储的相似度计算速度 (#7494)
[0.8.14] - 2023-08-30#
新特性#
- 特性:在 Graph RAG 中支持非 kg 异构图 (#7459)
- rag 指南 (#7480)
错误修复 / 细节改进#
- 改进 openai 微调模型解析 (#7474)
- 进行一些代码去重 (#7468)
- 在 HF LLM 中支持 query_wrapper_prompt 的 str 和 templates 格式 (#7473)
[0.8.13] - 2023-08-29#
新特性#
- 添加嵌入微调 (#7452)
- 添加对 RunGPT LLM 的支持 (#7401)
- 与 DeepEval 的集成指南和 notebook (#7425)
- 添加
VectorIndex
和VectaraRetriever
作为托管索引 (#7440) - 添加对
to_tool_list
支持检测和使用异步函数 (#7282)
[0.8.12] - 2023-08-28#
新特性#
- 添加 openai 微调类 (#7442)
- Service Context to/from dict (#7395)
- 添加 finetuning 指南 (#7429)
小特性 / 细节改进 / 错误修复#
- 添加如何运行 FalkorDB docker 的示例 (#7441)
- 更新 root.md 以使用 get_response_synthesizer 预期类型 (#7437)
- MonsterAPI Pydantic 版本 v2/v1 支持的 bug 修复。文档更新 (#7432)
[0.8.11.post3] - 2023-08-27#
新特性#
- AutoMergingRetriever (#7420)
[0.8.10.post1] - 2023-08-25#
新特性#
- 添加对使用 MonsterAPI 的
MonsterLLM
支持 (#7343) - 支持 NebulaGraphStore 中的 comments 字段和 int 类型 VID (#7402)
- 添加 DynamoDB 可配置端点 (#6777)
- 为 Refine response synthesizer 添加结构化答案过滤 (#7317)
错误修复 / 细节改进#
- 为 json file reader 使用
utf-8
(#7390) - 修复实体提取器初始化 (#7407)
[0.8.9] - 2023-08-24#
新特性#
- 添加对 FalkorDB/RedisGraph 图存储的支持 (#7346)
- 添加定向子图 RAG (#7378)
- 添加对
BM25Retriever
的支持 (#7342)
错误修复 / 细节改进#
- 为
Xinference
LLM 添加max_tokens
(#7372) - 在多线程应用中支持缓存目录创建 (#7365)
- 确保 openai 的 temperature 是浮点数 (#7382)
- 移除 knowledge graph retriever 中的重复主题 (#7378)
- 添加对 pydantic v1 和 v2 的支持,以允许其他应用程序继续前进 (#7394)
破坏性/弃用 API 变更#
- 重构提示模板 (#7319)
- 使用
BasePromptTemplate
进行通用类型定义 - 使用
PromptTemplate
、ChatPromptTemplate
、SelectorPromptTemplate
作为核心实现 - 使用
LangchainPromptTemplate
与 Langchain 提示模板兼容 - 在代码库中完全替换特定提示类(例如
SummaryPrompt
),使用通用的BasePromptTemplate
进行类型定义。 - 保留
Prompt
作为PromptTemplate
的别名以实现向后兼容。 - 破坏性变更:移除对
Prompt.from_langchain_prompt
的支持,请改用template=LangchainPromptTemplate(lc_template)
。
[0.8.8] - 2023-08-23#
新特性#
OpenAIFineTuningHandler
用于收集 OpenAI 微调的 LLM 输入/输出 (#7367)
错误修复 / 细节改进#
- 添加对
claude-instant-1.2
的支持 (#7369)
[0.8.7] - 2023-08-22#
新特性#
- 支持微调的 OpenAI 模型 (#7364)
- 添加对 Cassandra 向量存储的支持 (#6784)
- 支持工具函数中的 pydantic 字段 (#7348)
错误修复 / 细节改进#
- 修复
OpenAIAgent
中强制函数调用导致的无限循环 (#7363)
[0.8.6] - 2023-08-22#
新特性#
- 自动与 recursive retriever notebook (#7353)
- 支持 BagelDB 的 Reader 和 Vector Store,并附带示例 notebook (#7311)
错误修复 / 细节改进#
- 在 retry source query engine 中使用 service context 处理中间索引 (#7341)
- prompt helper + chat models 的临时修复 (#7350)
- 正确跳过未安装包时的单元测试 (#7351)
[0.8.5.post2] - 2023-08-20#
新特性#
- 添加 FireStore docstore/index store 支持 (#7305)
- 添加 recursive agent notebook (#7330)
错误修复 / 细节改进#
- 修复 Azure pydantic 错误 (#7329)
- 修复 callback trace id(使其成为 context var)(#7331)
[0.8.5.post1] - 2023-08-18#
新特性#
- Awadb 向量存储 (#7291)
错误修复 / 细节改进#
- 修复 OpenAI llm temperature 类型 bug
[0.8.5] - 2023-08-18#
新特性#
- 在 service context 中公开一个 system prompt/query wrapper prompt,用于开源 LLM (#6647)
- 将默认 MyScale 索引格式更改为
MSTG
(#7288) - 为 chat engines/agents 添加跟踪功能 (#7304)
- 将 LLM 和 embeddings 移至 pydantic (#7289)
错误修复 / 细节改进#
- 修复 sentence splitter bug (#7303)
- 修复 sentence splitter 无限循环问题 (#7295)
[0.8.4] - 2023-08-17#
错误修复 / 细节改进#
- 改进 SQL 查询解析 (#7283)
- 修复从全局 service context 加载 embed_model 的问题 (#7284)
- 限制 langchain 版本,直到迁移到 pydantic v2 (#7297)
[0.8.3] - 2023-08-16#
新特性#
- 添加 Knowledge Graph RAG Retriever (#7204)
错误修复 / 细节改进#
- 在 OpenAI LLM 类构造函数中接受
api_key
kwarg (#7263) - 修复为
StreamingAgentChatResponse
的不同实例创建单独队列实例的问题 (#7264)
[0.8.2.post1] - 2023-08-14#
新特性#
- 添加对 Rockset 作为向量存储的支持 (#7111)
错误修复#
- 修复 service context 定义中可能导致 LLM 被禁用的 bug (#7261)
[0.8.2] - 2023-08-14#
新特性#
- 通过在 service context 中将 LLM 或 embedding 模型设置为
None
来禁用它们 (#7255) - 使用
embed_model="local:<model_name>"
语法解析几乎所有 huggingface embedding 模型 (#7255) - 异步工具调用支持 (#7239)
错误修复 / 细节改进#
- 更新 supabase 添加和查询的 kwargs (#7103)
- 对默认提示进行微调,以允许更通用的查询 (#7254)
- 使
CustomLLM
的 callback manager 成为可选 + 文档更新 (#7257)
[0.8.1] - 2023-08-13#
新特性#
- 特性:为 ContextChatEngine 添加 node_postprocessors (#7232)
- 添加 ensemble query engine 教程 (#7247)
小特性#
- 允许 Fastchat/本地 OpenAI API 端点使用 EMPTY keys (#7224)
[0.8.0] - 2023-08-11#
新特性#
- 添加“LLAMA_INDEX_CACHE_DIR”以控制缓存文件 (#7233)
- 可能时默认使用 pydantic 选择器 (#7154, #7223)
- 移除 service context 中
embed_model
的 langchain 包装器依赖 (#7157) - Metadata extractors 现在接受一个
LLM
对象,除了LLMPredictor
(#7202) - 添加本地模式 + 回退到 llama.cpp + llama2 (#7200)
- 为 embeddings 添加本地回退到
BAAI/bge-small-en
(#7200) - 添加
SentenceWindowNodeParser
+MetadataReplacementPostProcessor
(#7211)
破坏性变更#
- 将默认 LLM 从 text-davinci-003 更改为 gpt-3.5-turbo (#7223)
- 更改 compact/refine/tree_summarize 的提示,以更好地与 gpt-3.5-turbo 配合使用 (#7150, #7179, #7223)
- 将默认 LLM temperature 提高到 0.1 (#7180)
[0.7.24.post1] - 2023-08-11#
其他变更#
- 回滚 #7223 对默认值的更改 (#7235)
[0.7.24] - 2023-08-10#
新特性#
- 可能时默认使用 pydantic 选择器 (#7154, #7223)
- 移除 service context 中
embed_model
的 langchain 包装器依赖 (#7157) - Metadata extractors 现在接受一个
LLM
对象,除了LLMPredictor
(#7202) - 添加本地模式 + 回退到 llama.cpp + llama2 (#7200)
- 为 embeddings 添加本地回退到
BAAI/bge-small-en
(#7200) - 添加
SentenceWindowNodeParser
+MetadataReplacementPostProcessor
(#7211)
破坏性变更#
- 将默认 LLM 从 text-davinci-003 更改为 gpt-3.5-turbo (#7223)
- 更改 compact/refine/tree_summarize 的提示,以更好地与 gpt-3.5-turbo 配合使用 (#7150, #7179, #7223)
- 将默认 LLM temperature 提高到 0.1 (#7180)
其他变更#
- 文档:改进 Mendable Search (#7220)
- 重构 openai 代理 (#7077)
错误修复 / 细节改进#
- 对 pgvector/postgres vector db 使用
1 - cosine_distance
(#7217) - 修复元数据格式化和提取问题 (#7216)
- 修复 (readers): 修复非 ASCII JSON Reader bug (#7086)
- 内务:将 PgVectorStore 变量名从
sim
更改为distance
以提高清晰度 (#7226)
[0.7.23] - 2023-08-10#
错误修复 / 细节改进#
- 修复自定义模板和继承导致的元数据格式化问题 (#7216)
[0.7.23] - 2023-08-10#
新特性#
- 向文档添加“一键可观测性”页面 (#7183)
- 为本地部署添加 Xorbits inference (#7151)
- 添加 Zep 向量存储集成 (#7203)
- 特性/zep 向量存储 (#7203)
错误修复 / 细节改进#
- 更新默认的
EntityExtractor
模型 (#7209) - 使
ChatMemoryBuffer
可 pickle 化 (#7205) - 重构
BaseOpenAIAgent
(#7077)
[0.7.22] - 2023-08-08#
新特性#
- 添加 ensemble retriever notebook (#7190)
- 文档:添加本地 llama2 notebook (#7146)
错误修复 / 细节改进#
- 通过在
BaseOpenAIAgent
中调用 super 构造函数修复AttributeError: 'OpenAIAgent' object has no attribute 'callback_manager'
问题 - 移除 nebula 查询中的反引号 (#7192)
[0.7.21] - 2023-08-07#
新特性#
- 添加用于元数据提取的
EntityExtractor
(#7163)
[0.7.20] - 2023-08-06#
新特性#
- 添加路由器模块文档 (#7171)
- 添加 retriever router (#7166)
新特性#
- 添加
RouterRetriever
用于将查询路由到特定检索器 (#7166)
错误修复 / 细节改进#
- 修复
OpenAIAgent
出现多个并发流式响应时导致令牌在响应流之间交错的问题 (#7164) - 修复 llm callbacks 问题 (args[0] error) (#7165)
[0.7.19] - 2023-08-04#
新特性#
- 为 weaviate 添加元数据过滤 (#7130)
- 为 agents 和流式传输添加令牌计数(以及所有回调)(#7122)
[0.7.18] - 2023-08-03#
新特性#
- 为 memory 对象添加
to/from_string
和to/from_dict
方法 (#7128) - 在 SQL 查询的表格信息中包含数据库表的列注释 (#7124)
- 添加 Neo4j 支持 (#7122)
错误修复 / 细节改进#
- 为
AzureOpenAI
类添加Azure AD
验证支持 (#7127) - 打印 agent/chat engine 响应流时添加
flush=True
(#7129) - 为
AzureOpenAI
类添加Azure AD
支持 (#7127) - 更新 LLM question generator prompt 以提及 JSON markdown (#7105)
- 修复 chat engines 中的
astream_chat
问题 (#7139)
[0.7.17] - 2023-08-02#
新特性#
- 更新
ReActAgent
以支持内存模块(微小的破坏性变更,因为构造函数接受memory
而不是chat_history
,但主要的from_tools
方法保持向后兼容)(#7116) - 更新
ReActAgent
以支持流式传输 (#7119) - 添加 Neo4j 图存储和查询引擎集成 (#7122)
- 添加对象流式传输 (#7117)
[0.7.16] - 2023-07-30#
新特性#
- 聊天源节点 (#7078)
[0.7.15] - 2023-07-29#
错误修复 / 细节改进#
- anthropic api key 自定义 (#7082)
- 修复 Contributor Docs 中 API reference 的损坏链接 (#7080)
- 更新 vector store 文档 (#7076)
- 更新注释 (#7073)
[0.7.14] - 2023-07-28#
新特性#
- 添加 HotpotQADistractor benchmark evaluator (#7034)
- 为 LanceDB 添加元数据过滤和删除支持 (#7048)
- 在 opensearch 中使用 MetadataFilters (#7005)
- 添加对
KuzuGraphStore
的支持 (#6970) - 添加
kg_triplet_extract_fn
以自定义 KG 的构建方式 (#7068)
错误修复 / 细节改进#
- 修复 context chat engine 中的字符串格式化问题 (#7050)
- 修复异步事件的跟踪问题 (#7052)
- 放宽 KG 三元组提取的限制 (#7059)
- 为检索到的 KG 数据添加可配置的限制 (#7059)
- 改进 Nebula 连接 (#7059)
- 修复 agent response 构建源节点的 bug (#7067)
[0.7.13] - 2023-07-26#
新特性#
- 为 AzureOpenAI 支持函数调用 API (#7041)
错误修复 / 细节改进#
- 调整 prompt 以消除 SubQ engine 中的 KeyError (#7039)
- 修复 Azure OpenAI 密钥验证 (#7042)
[0.7.12] - 2023-07-25#
新特性#
- 为底层 query engines 添加
kwargs
到ComposableGraph
(#6990) - 在初始化时验证 openai key (#6940)
- 添加异步 embeddings 和异步 RetrieverQueryEngine (#6587)
- 为 PGVectorStore 添加异步
aquery
和async_add
(#7031) - 为 chat engine 和 agent responses 添加
.source_nodes
属性 (#7029) - 添加
OpenInferenceCallback
以 OpenInference 格式存储生成数据 (#6998)
错误修复 / 细节改进#
- 修复 data agents 的 achat memory 初始化问题 (#7000)
- 为 agengt/chat engine response 类添加
print_response_stream()
(#7018)
错误修复 / 细节改进#
- 修复 data agents 的 achat memory 初始化问题 (#7000)
- 为 agengt/chat engine response 类添加
print_response_stream()
(#7018)
[v0.7.11.post1] - 2023-07-20#
新特性#
- 可能时默认使用 pydantic 为 sub-question query engine 生成问题 (#6979)
错误修复 / 细节改进#
- 修复大型聊天内存中消息的返回顺序问题 (#6979)
[v0.7.11] - 2023-07-19#
新特性#
- 添加
SentenceTransformerRerank
节点后处理器,用于快速本地重排序 (#6934) - 在 pandas query engine 中添加 numpy 支持以评估查询 (#6935)
- 为 Postgres Vector Storage 集成添加元数据过滤支持 (#6968)
- 为 agents 和 query engines 提供适当的 llama2 支持 (#6969)
错误修复 / 细节改进#
- 将
model_name
添加到 LLMMetadata (#6911) - 在 query engines 中回退到 retriever service context (#6911)
- 修复
as_chat_engine()
在额外 kwargs 下的 ValueError 问题 (#6971
[v0.7.10.post1] - 2023-07-18#
新特性#
- 添加对 Replicate LLM 的支持 (vicuna & llama 2!) (#6958)
错误修复 / 细节改进#
- 修复 condense chat engine 的流式传输问题 (#6958)
[v0.7.10] - 2023-07-17#
新特性#
- 添加对 chroma v0.4.0 的支持 (#6937)
- 将嵌入向量记录到 callback manager (#6962)
错误修复 / 细节改进#
- 添加更健壮的嵌入超时设置 (#6779)
- 改进 postgres vector store 的连接会话管理 (#6843)
[v0.7.9] - 2023-07-15#
新特性#
- 指定
embed_model="local"
以在 service context 中使用默认本地嵌入 (#6806) - 为
BasePydanticProgram
添加异步acall
端点(默认为同步版本)。为OpenAIPydanticProgram
实现此功能 (#6910)
错误修复 / 细节改进#
- 修复搜索现有 vector dbs 时 null 元数据问题 (#6912)
- 为
SimpleDirectoryReader
添加模块指南文档 (#6916) - 确保
CondenseQuestionChatEngine
的流式聊天端点即使在底层 query engine 中未显式设置streaming=True
时也能工作 (#6910)
[v0.7.8] - 2023-07-13#
新特性#
- 添加嵌入速度基准测试 (#6876)
- 添加 BEIR 检索基准测试 (#6825)
错误修复 / 细节改进#
- 从 deprecated_terms 中移除 toctrees (#6895)
- 放宽类型依赖限制 (#6879)
- 文档:修改 evaluation notebook (#6840)
- 如果模型不支持函数则引发错误 (#6896)
- 修复 (bench embeddings): 未考虑字符串长度的 bug (#6899)
[v0.7.7] - 2023-07-13#
新特性#
- 改进 milvus 一致性支持和输出字段支持 (#6452)
- 添加知识图谱查询 w/ cypyer+nebula 支持 (#6642)
- 添加
Document.example()
以创建文档进行快速原型开发 (#6739) - 替换 react chat engine 使用原生 reactive agent (#6870)
错误修复 / 细节改进#
- 内务:为 makefile 添加帮助消息 (#6861)
错误修复 / 细节改进#
- 修复使用 SQLTableSchema context_str 属性的支持问题 (#6891)
[v0.7.6] - 2023-07-12#
新特性#
- 为 agent/chat engine responses 添加 sources (#6854)
- 为 agents / chat engines 添加基本聊天缓冲区内存 (#6857)
- 添加加载和搜索工具 (#6871)
- 添加 simple agent benchmark (#6869)
- 添加 agent 文档 (#6866)
- 添加 react agent (#6865)
破坏性/弃用 API 变更#
- 将 react chat engine 替换为原生 react agent (#6870)
- 将默认聊天模式设置为“best”:可能时使用 openai agent,否则使用 react agent (#6870)
错误修复 / 细节改进#
- 修复对 legacy vector store 元数据的支持问题 (#6867)
- 修复文档中的 chroma notebook 链接 (#6872)
- 更新 LC embeddings 文档 (#6868)
[v0.7.5] - 2023-07-11#
新特性#
- 添加
Anthropic
LLM 实现 (#6855)
错误修复 / 细节改进#
- 修复
SentenceEmbeddingOptimizer
中的索引错误 (#6850) - 修复自定义 embedding model 的文档 (#6851)
- 修复 (silent error): 为
SimpleDirectoryReader
添加验证 (#6819) - 修复文档中的链接 (#6833)
- 修复 Azure gpt-35-turbo 模型未被识别的问题 (#6828)
- 更新 Chatbot_SEC.ipynb (#6808)
- 将剩余的原始名称重命名为 LlamaIndex (#6792)
- 修复相同类型的嵌套 traces (#6791)
[v0.7.4] - 2023-07-08#
新特性#
MetadataExtractor
- 通过基于 LLM 的特征提取器增强文档元数据 (#6764)
错误修复 / 细节改进#
- 修复将 query bundle 传递给 node postprocessors 的问题 (#6780)
- 修复 callback manager 嵌套 traces 的错误 (#6791)
[v0.7.3] - 2023-07-07#
新特性#
- Sub question query engine 在 callback manager 中返回 sub questions 的源节点 (#6745)
- trulens 集成 (#6741)
- 为 subquestion engine 添加 sources (#6745)
错误修复 / 细节改进#
- 添加/修复 simple 和 condense chat engines 的流式传输支持 (#6717)
- 修复
response_mode="no_text"
response synthesizer (#6755) - 修复在 service context 中设置
num_output
和context_window
的错误 (#6766) - 修复教程中缺失的 as_query_engine() (#6747)
- 修复 notebook 中的变量 sql_query_engine (#6778)
- 修复 required function fields (#6761)
- 在 Prompt, SQL gen 中移除 stop token 的使用 (#6782)
[v0.7.2] - 2023-07-06#
新特性#
- 支持 Azure OpenAI (#6718)
- 在 chat engine 和 OpenAI agent 中支持 prefix messages (例如系统提示) (#6723)
- 添加
CBEventType.SUB_QUESTIONS
事件类型用于跟踪 sub question 查询/响应 (#6716)
错误修复 / 细节改进#
- 修复 HF LLM 输出错误 (#6737)
- 为 langchain message templates 添加 system message 支持 (#6743)
- 修复应用 node-postprocessors 的问题 (#6749)
- 添加
llama_index.llms
下缺失的CustomLLM
导入 (#6752) - 修复 (typo):
get_transformer_tokenizer_fn
(#6729) - 特性 (formatting):
black[jupyter]
(#6732) - 修复 (test):
test_optimizer_chinese
(#6730)
[v0.7.1] - 2023-07-05#
新特性#
- OpenAI agents 的流式传输支持 (#6694)
- 添加 recursive retriever + notebook 示例 (#6682)
[v0.7.0] - 2023-07-04#
新特性#
- 索引创建进度条 (#6583)
错误修复/细节改进#
- 改进 chat refine 模板 (#6645)
破坏性/弃用 API 变更#
- 将
BaseOpenAIAgent
更改为使用llama_index.llms.OpenAI
。将chat_history
调整为使用List[ChatMessage]]
类型。 - 移除 (先前已弃用)
llama_index.langchain_helpers.chain_wrapper
模块。 - 移除 (先前已弃用)
llama_index.token_counter.token_counter
模块。有关新的基于回调的令牌计数的更多详细信息,请参阅迁移指南。 - 移除
ChatGPTLLMPredictor
和HuggingFaceLLMPredictor
。有关替换方案的更多详细信息,请参阅迁移指南。 - 移除对通过
LLMPredictor
构造函数设置cache
的支持。 - 更新
BaseChatEngine
接口 - 将
chat_history
调整为使用List[ChatMessage]]
类型 - 将
chat_history
状态作为属性公开 - 支持在
chat
和achat
端点中覆盖chat_history
- 移除
PromptHelper
的已弃用参数:max_input_size
、embedding_limit
、max_chunk_overlap
- 更新所有 notebook 以使用原生 openai 集成 (#6696)
[v0.6.38] - 2023-07-02#
新特性#
- 在索引创建过程中添加可选的 tqdm 进度条 (#6583)
- 为“compact”和“refine”响应模式添加异步支持 (#6590)
- [特性]为 optimizer (chinese) 添加 transformer 分词功能 (#6659)
- 添加 vector store 的简单基准测试 (#6670)
- 引入
llama_index.llms
模块,包含新的LLM
接口以及OpenAI
、HuggingFaceLLM
、LangChainLLM
实现 (#6615) - 废除 pydantic program (#6666)
错误修复 / 细节改进#
- 改进 RedisVectorStore 的元数据/节点存储和检索 (#6678)
- 修复 vector store 中的节点与文档过滤问题 (#6677)
- 在文档中添加 context retrieval agent notebook 链接 (#6660)
- 允许 ImageNode 类中的 'image' 属性为 null 值 (#6661)
- 修复文档中的损坏链接 (#6669)
- 更新 milvus 以存储节点内容 (#6667)
[v0.6.37] - 2023-06-30#
新特性#
- 添加上下文增强 openai agent (#6655)
[v0.6.36] - 2023-06-29#
新特性#
- 支持 Redis 用于 index stores 和 docstores (#6575)
- DuckDB + SQL query engine notebook (#6628)
- 添加展示 deplot data loader 的 notebook (#6638)
错误修复 / 细节改进#
- 从 LLM 解析 JSON 更健壮,用于
SelectionOutputParser
(#6610) - 使我们的 loader 与 llama-hub 保持一致 (#6630)
- 在 notebook 中移除 SQLStructStoreIndex 的使用 (#6585)
- MD reader: 移除 html 标签并保留换行符 (#6618)
- 提高 langchain 最低版本到最新版本 (#6632)
- 修复 postgres vector store 中的元数据列名 (#6622)
- Postgres 元数据修复 (#6626, #6634)
- 修复 contribution.md 中 dataloaders 的链接 (#6636)
- 修复:文档中创建 custom_llm huggingface 示例的拼写错误 (#6639)
- 更新 SelectionOutputParser 以处理 JSON 对象和数组 (#6610)
- 修复 docstring 参数拼写错误 (#6652)
[v0.6.35] - 2023-06-28#
- 重构结构化输出 + pydantic programs (#6604)
错误修复 / 细节改进#
- 修复 OpenSearch vector stores 的序列化问题 (#6612)
- 修复文档关系 (#6606)
- 修复解析 git repo 时忽略目录的 bug (#4196)
- 更新 Chroma notebook (#6572)
- 后向兼容旧节点名 (#6614)
- 添加更改 chroma 实现的能力 (#6601)
[v0.6.34] - 2023-06-26#
补丁更新 (v0.6.34.post1)#
- 修复 Document obj 的导入问题以实现向后兼容 (#6597)
新特性#
- 基于 pydantic 的新
TextNode
/Document
对象类 (#6586) TextNode
/Document
对象支持元数据自定义(元数据模板,从 LLM 或 embeddings 中排除元数据)(#6586)- 节点不再需要扁平的元数据字典,除非您使用的 vector store 要求如此 (#6586)
错误修复 / 细节改进#
- 使用
NLTK_DATA
环境变量控制 NLTK 下载位置 (#6579) - [discord] 在 group_conversations.py 中将 author 保存为元数据 (#6592)
- requirements 中将 bs4 更改为 beautifulsoup4 (#6582)
- 对 euclidean distance 取反 (#6564)
- 在文档中添加 df output parser notebook 链接 (#6581)
破坏性/弃用 API 变更#
Node
已更名为TextNode
,并从llama_index.schema
导入 (#6586)TextNode
和Document
必须使用 kwargs 实例化:Document(text=text)
(#6586)TextNode
(原名Node
) 具有id_
或node_id
属性,而不是doc_id
(#6586)TextNode
和Document
具有 metadata 属性,取代了 extra_info 属性 (#6586)TextNode
不再具有node_info
属性(start/end 索引直接通过start/end_char_idx
属性访问)(#6586)
[v0.6.33] - 2023-06-25#
新特性#
- 添加 typesense vector store (#6561)
- 添加 df output parser (#6576)
错误修复 / 细节改进#
- 通过 bridge module 跟踪 langchain 依赖 (#6573)
[v0.6.32] - 2023-06-23#
新特性#
- 添加 object index (#6548)
- 添加 SQL Schema Node Mapping + SQLTableRetrieverQueryEngine + obj index 修复 (#6569)
- sql 重构 (NLSQLTableQueryEngine) (#6529)
错误修复 / 细节改进#
- 更新 vector_stores.md (#6562)
- 微小
BaseResponseBuilder
接口清理 (#6557) - 重构 TreeSummarize (#6550)
[v0.6.31] - 2023-06-22#
错误修复 / 细节改进#
- 正确将 weaviate 距离转换为分数 (#6545)
- 重构 tree summarize 并修复不截断上下文的 bug (#6550)
- 修复 custom KG retrieval notebook 的细节问题 (#6551)
[v0.6.30] - 2023-06-21#
新特性#
- router query engine 中的 multi-selector 支持 (#6518)
- 使用 OpenAI function calling API 在 router query engine 中支持 pydantic selector (#6518)
CondenseQuestionChatEngine
和SimpleChatEngine
中的流式响应支持 (#6524)QdrantVectorStore
中的元数据过滤支持 (#6476)- 添加
PGVectorStore
以支持带有 pgvector 的 postgres (#6190)
错误修复 / 细节改进#
- 改进 mbox reader 中的错误处理 (#6248)
- 修复使用 weaviate 时空白相似度分数的问题 (#6512)
- 修复
PrevNextNodePostprocessor
中节点排序问题 (#6048)
破坏性/弃用 API 变更#
- 重构 PandasQueryEngine 以直接接受 df,弃用 PandasIndex (#6527)
[v0.6.29] - 2023-06-20#
新特性#
- 使用 OpenAI Function API 的 query planning 工具 (#6520)
- 文档:kg+vector 索引示例 (#6497)
- 为 Cohere 和 AI21(J2 模型) 设置上下文窗口大小 (#6485)
错误修复 / 细节改进#
- 为 Cohere 和 AI21 添加默认输入大小 (#6485)
- 文档:将 dict object 中的逗号替换为冒号 (#6439)
- 提示中额外的空格和错误消息更新 (#6443)
- [Issue 6417] 修复 prompt_templates 文档页面 (#6499)
- 移除 monkey patch 并更新模型到上下文窗口的映射 (#6490)
[v0.6.28] - 2023-06-19#
新特性#
- 新的 OpenAI Agent + Query Engine Cookbook (#6496)
- 允许递归数据提取 (pydantic program) (#6503)
错误修复 / 细节改进#
- 更新 mongo interface (#6501)
- 修复我们遗漏的 openai pydantic program 问题 (#6503) (#6504)
- 修复 Airbyte notebook 中的 github 图片 (#6493)
[v0.6.27] - 2023-06-16#
新特性#
- 为 weaviate 添加节点 doc_id 过滤 (#6467)
- 新的
TokenCountingCallback
用于自定义和跟踪嵌入、提示和完成令牌使用量 (#6440) - OpenAI Retrieval Function Agent (#6491)
破坏性/弃用 API 变更#
- 弃用当前的令牌跟踪功能(llm predictor 和 embed model 未来将不再跟踪令牌,请使用
TokenCountingCallback
)(#6440) - 为 Simple Vector Store 添加 maximal marginal relevance,可以作为查询模式启用 (#6446)
错误修复 / 细节改进#
as_chat_engine
正确继承当前的 service context (#6470)- 从 pinecone 删除时使用 namespace (#6475)
- 修复在 windows 上使用 fsspec 时的路径问题 (#3778)
- 修复
SimpleDirectoryReader
中使用 custom file readers 的问题 (#6477) - 编辑 MMR Notebook (#6486)
- FLARE 修复 (#6484)
[v0.6.26] - 2023-06-14#
新特性#
- 添加 OpenAIAgent 和“构建自己的 agent”教程 notebook (#6461)
- 添加 OpenAIPydanticProgram (#6462)
错误修复 / 细节改进#
- 修复 citation engine 导入问题 (#6456)
[v0.6.25] - 2023-06-13#
新特性#
- 添加 FLARE query engine (#6419)。
[v0.6.24] - 2023-06-12#
新特性#
- 为带有现有数据的 vector store 添加更好的支持(例如允许为 Pinecone 和 Weaviate 配置 text key)(#6393)
- 支持 Pineone 的批处理 upsert (#6393)
- 添加初步的 guidance 集成。添加
GuidancePydanticProgram
用于通用结构化输出生成,以及GuidanceQuestionGenerator
用于在SubQuestionQueryEngine
中生成 sub-questions (#6246)。
[v0.6.23] - 2023-06-11#
错误修复 / 细节改进#
- 移除 citation query engine 中硬编码的 chunk size (#6408)
- Mongo demo 改进 (#6406)
- 修复 notebook (#6418)
- 清理 RetryQuery notebook (#6381)
[v0.6.22] - 2023-06-10#
新特性#
- 添加
SQLJoinQueryEngine
(SQLAutoVectorQueryEngine
的泛化) (#6265) - 在底层添加对 graph stores 的支持,并初步支持 Nebula KG。更多文档即将发布!(#2581)
- 添加 guideline evaluator,允许 llm 根据用户指南提供反馈 (#4664)
- 添加对 MongoDB Vector stores 的支持,以启用 Atlas knnbeta 搜索 (#6379)
- 添加新的 CitationQueryEngine,用于在响应文本中以内联方式引用源 (#6239)
错误修复#
- 修复
delete_ref_doc
未从 docstore 中移除所有元数据的 bug (#6192) - 修复加载现有 QDrantVectorStore 的 bug (#6230)
其他杂项#
- 正式将 changelog 添加到 github 仓库 (#6191)
[v0.6.21] - 2023-06-06#
新特性#
- SimpleDirectoryReader 添加新的
filename_as_id
标志,自动设置 doc_id (对于refresh_ref_docs()
非常有用) (#6192) - DocArray vector store 集成 (#6172)
- Tair vector store 集成 (#6185)
- Weights and Biases callback handler 用于跟踪和版本化索引 (#6169)
- 可以直接从 vector store 初始化索引:
index = VectorStoreIndex.from_vector_store(vector_store=vector_store)
(#6196)
错误修复#
- 修复 multimodal notebook (#6173)
- 更新/修复文档中的 SQL 教程 (#6182)
其他杂项#
- 微小文档更新 (#6179)
- 添加 github pull-requset 模板 (#6180)
- 添加 github issue-forms (#6181)
[v0.6.20] - 2023-06-04#
新特性#
- 添加新的 JSONQueryEngine,使用 JSON schema 提供更准确的 JSON 查询答案 (#6146)
- 支持 redis vector-store 的元数据 (#6147)
- 添加 Supabase vector store 集成 (#6096)
错误修复#
- 修复 text-to-sql 提示中的拼写错误 (#6148)
破坏性/弃用 API 变更#
- 移除索引中的 GPT 前缀(旧的导入/名称仍然支持)(#6157)
其他杂项#
- 主要文档更新,将重要模块提升到顶层 (#6163)
[v0.6.19] - 2023-06-02#
新特性#
- 为 llama-hub data loaders 添加 agent tool 抽象 (#6139)
其他杂项#
- 微小文档更新 (#6142)
[v0.6.18] - 2023-06-02#
其他杂项#
- 在 tutorials docs 部分添加
Discover LlamaIndex
视频系列 (#6120) - 微小文档更新 (#6179)