跳到内容

变更日志#

[2024-05-08]#

llama-index-core [0.12.35]#

  • 增加支持预填充 FunctionTool 的部分工具关键词参数 (#18658)
  • 修复/react 代理最大迭代次数跳过问题 (#18634)
  • 处理预构建工作流程(例如 AgentWorkflow)中边缘情况下的序列化问题 (#18628)
  • 采用新的基类重构内存 (#18594)
  • 添加预构建内存块 (#18607)

llama-index-embeddings-autoembeddings [0.1.0]#

  • 支持来自 chonkie 的 AutoEmbeddings 集成 (#18578)

llama-index-embeddings-huggingface-api [0.3.1]#

  • 修复 huggingface-hub 的依赖版本 (#18662)

llama-index-indices-managed-vectara [0.4.5]#

  • 修复在 Vectara 中使用带有链式重排序器的 cutoff 参数时的错误 (#18610)

llama-index-llms-anthropic [0.6.12]#

  • anthropic 引文和工具调用 (#18657)

llama-index-llms-cortex [0.3.0]#

  • 用于认证的 Cortex 增强功能 2 (#18588)

llama-index-llms-dashscope [0.3.3]#

  • 修复 dashscope 工具调用解析 (#18608)

llama-index-llms-google-genai [0.1.12]#

  • 修复 google-genai llm 中修改对象引用错误 (#18616)
  • feat(llama-index-llms-google-genai): 2.5-flash-preview 测试 (#18575)
  • 修复 last_msg 索引问题 (#18611)

llama-index-llms-huggingface-api [0.4.3]#

  • Huggingface API 的任务和依赖项修复 (#18662)

llama-index-llms-litellm [0.4.2]#

  • 修复解析流式工具调用问题 (#18653)

llama-index-llms-meta [0.1.1]#

  • 支持 Meta Llama-api 作为 LLM 提供商 (#18585)

llama-index-node-parser-docling [0.3.2]#

  • 修复/docling 节点解析器元数据 (#186390)

llama-index-node-parser-slide [0.1.0]#

  • 添加 SlideNodeParser 集成 (#18620)

llama-index-readers-github [0.6.1]#

  • 修复: 为 GitHubIssuesClient 添加 follow_redirects=True (#18630)

llama-index-readers-markitdown [0.1.1]#

  • 修复 MarkItDown Reader 错误 (#18613)

llama-index-readers-oxylabs [0.1.2]#

  • 添加 Oxylabs 阅读器 (#18555)

llama-index-readers-web [0.4.1]#

  • 修复 Firecrawl 库调用不当的问题 (#18646)
  • 添加 Oxylabs 阅读器 (#18555)

llama-index-storage-chat-store-gel [0.1.0]#

  • 添加 Gel 集成 (#18503)

llama-index-storage-docstore-gel [0.1.0]#

  • 添加 Gel 集成 (#18503)

llama-index-storage-kvstore-gel [0.1.0]#

  • 添加 Gel 集成 (#18503)

llama-index-storage-index-store-gel [0.1.0]#

  • 添加 Gel 集成 (#18503)

llama-index-utils-workflow [0.3.2]#

  • 修复 draw_all_possible_flows 的事件颜色 (#18660)

llama-index-vector-stores-faiss [0.4.0]#

  • 添加 Faiss Map 向量存储并修复缺失的 index_struct 删除问题 (#18638)

llama-index-vector-stores-gel [0.1.0]#

  • 添加 Gel 集成 (#18503)

llama-index-vector-stores-postgres [0.5.2]#

  • 添加索引元数据字段 (#18595)

[2025-04-30]#

  • 将仓库从 poetry 迁移到 uv (#18524)

llama-index-core [0.12.34]#

  • 修复: 当 showprogress 为 False 时 aextract_table_summaries 导致不必要的输出 (#18528)

llama-index-embeddings-cohere [0.4.1]#

  • 修复带有自定义端点的 Cohere Embedding 多进程问题 (#18551)

llama-index-embeddings-openvino-genai [0.5.0]#

  • 添加 openvino genai embedding (#18569)

llama-index-llms-bedrock-converse [0.5.0]#

  • 增加对 AWS Bedrock 应用推理配置文件 的支持 (#18549)

llama-index-llms-google-genai [0.1.10]#

  • 2.5-flash-preview 测试 + 结构化预测变更/修复 (#18575)
  • 解除 google genai llm 中的 pillow 依赖锁 (#18533)
  • 正确合并工具消息 (#18527)

llama-index-llms-huggingface-api [0.4.2]#

  • 为 HuggingFaceInferenceAPI 添加提供商支持 (#18574)

llama-index-llms-vllm [0.5.1]#

  • 特性: 添加 is_chat_model 选项 (#18552)

llama-index-packs-code-hierarchy [0.5.1]#

  • Code Hierarchy Agent Pack 处理空文件和不同编码文件的问题 (#18538)

llama-index-postprocessor-cohere-rerank [0.4.0]#

  • 在 CohereRerank 中更新默认模型版本到 v3.0 (#18579)

llama-index-readers-database [0.4.0]#

  • 通过新功能和改进的文档增强 DatabaseReader (#18537)

llama-index-tools-mcp [0.1.2]#

  • 防止 MCP 连接挂起 (#18512)

llama-index-vector-stores-opensearch [0.5.3]#

  • 添加 OpensearchVectorClient 以有条件地检查 AOSS 的索引是否存在 (#18560)

llama-index-vector-stores-postgres [0.5.1]#

  • 在 PGVectorStore 中实现 aget_nodes 和 adelete (#18515)
  • 允许 PGVectorStore 接受传入引擎 (#18507)

[2025-04-23]#

llama-index-core [0.12.33 / 0.12.33.post1]#

  • 捆绑更新的 tiktoken 编码,提高最低 tiktoken 版本 (#18509)

llama-index-vector-stores-milvus [0.8.1]#

  • Milvus Vector Store: 更新元数据过滤演示 (#18502)

[2025-04-21]#

llama-index-core [0.12.32]#

  • 修复媒体资源序列化问题 (#18496)
  • 修复 react 代理提示更新问题 (#18494)

llama-index-indices-managed-vectara [0.4.4]#

  • 在 GC 时关闭 VectaraIndex 中的 "session" (#18484)

llama-index-llms-openai [0.3.38]#

  • 允许 openai 助手消息中的内容块 (#18495)

llama-index-llms-openvino-genai [0.1.1]#

  • 修复 openvino llm 初始化问题 (#18481)

llama-index-vector-stores-milvus [0.8.0]#

  • MilvusVectorStore: BM25 作为默认稀疏嵌入函数 (#18460)

[2025-04-16]#

llama-index-core [0.12.31]#

  • 修复/内存多模态内容序列化问题 (#18447)
  • 向内存和后处理器基类添加异步功能 (#18438)

llama-index-callbacks-arize-pheonix [0.5.1]#

  • llama index 回调 arize phoenix python 版本更新 (#18466)

llama-index-graph-stores-nebula [0.4.2]#

  • 修复 nebula 属性获取问题 (#18461)

llama-index-indices-managed-vectara [0.4.3]#

  • 为 Vectara 添加了 llm_name 参数 (#18472)

llama-index-llms-cohere [0.4.1]#

  • 扩展 cohere 模型支持 (#18440)

llama-index-llms-llama-api [0.4.0]#

  • 通过包装 OpenAI 修复 LlamaAPI 集成问题 (#18437)

llama-index-llms-perplexity [0.3.3]#

  • 更新 Perplexity 实现以支持新模型 (#18442)

llama-index-llms-openai [0.3.37]#

  • 为 OpenAI 4.1 支持添加了模型名称 (#18456)
  • 支持 o3 和 o4-mini (#18473)
  • 在使用 Azure 的异步方法时,不要创建同步 openai 客户端 (#18471)

llama-index-storage-chat-store-sqlite [0.1.0]#

  • 特性: 添加 sqlite 聊天存储 (#18432)

llama-index-vector-stores-ApertureDB [0.0.1]#

  • 添加 ApertureDB 向量存储 (#18428)

llama-index-vector-stores-elasticsearch [0.4.3]#

  • 实现缺失的 BasePydanticVectorStore 方法 (#18454)

[2025-04-10]#

llama-index-core [0.12.30]#

  • 修复多代理状态格式化问题 (#18417)
  • 默认对异步读取器方法使用 to_thread (#18418)

llama-index-callbacks-arize-pheonix [0.5.0]#

  • 连接新的 phoenix 跟踪选项以获取单独上下文 (#18415)

llama-index-graph-stores-nebula [0.4.1]#

  • 修复 nebula 属性获取问题 (#18423)

llama-index-llms-openai [0.3.33]#

  • 实际修复 OpenAIResponses 中的传参引用错误 (#18420)

[2024-04-08]#

llama-index-core [0.12.29]#

  • 在 AgentWorkflow 中更好地强制执行代理切换 (#18399)
  • 重构等待事件以处理多个 wait_for_event 调用 (#18226)
  • 修复: 🐛 用 tree_sitter_language_pack 替换损坏且已停用的 tree_sitter_languages (#18387)
  • 修复 SentenceSplitter 在解析大量文本时代价高昂的 pop(0) 问题 (#18359)

llama-index-embeddings-huggingface [0.5.3]#

  • 在 HuggingFaceEmbedding 中添加切换进度条的选项 (#18404)

llama-index-embeddings-openai-like [0.1.0]#

  • 添加 OpenAILikeEmbedding,更新文档 (#18364)

llama-index-llms-bedrock-converse [0.4.15]#

  • 特性: 为 bedrock converse 添加多模态支持 (#18373)
  • 支持 bedrock converse deepseek r1 (#18371)

llama-index-llms-ibm [0.3.4]#

  • 缓存 watsonx 上下文窗口 (#18350)

llama-index-llms-openai [0.3.31]#

  • 修复 openai json 解码错误 (#18352)
  • 启用 openai 响应覆盖 (#18402)

llama-index-llms-vertex [0.4.6]#

  • 为 Gemini 模型添加 ImageBlock 和 TextBlock 支持 (#18344)

llama-index-graph-stores-kuzu [0.7.0]#

  • 更新到 Kuzu 0.9.0 (#18382)

llama-index-indices-managed-llama-cloud [0.6.11]#

  • 移除 org id kwarg (#18355)

llama-index-readers-microsoft-sharepoint [0.5.1]#

  • 修复 Sharepoint 文件夹路径编码问题 (#18357)

llama-index-readers-papers [0.3.2]#

  • 修复: 使用 defusexml 而不是 xml.etree (#18362)

llama-index-readers-stripe-docs [0.3.1]#

  • 修复: 使用 defusexml 而不是 xml.etree (#18362)

llama-index-readers-uniprot [0.1.0]#

  • 添加 uniprot 阅读器 (#18356)

llama-index-readers-web [0.3.9]#

  • 修复: 使用 defusexml 而不是 xml.etree (#18362)

llama-index-retrievers-galaxia [0.1.0]#

  • 添加 GalaxiaRetriever (#18317)

llama-index-vector-stores-azureaisearch [0.3.7]#

  • chore: 为语义配置添加标题和关键词 (#18354)

llama-index-vector-stores-lancedb [0.3.2]#

  • 修复 LanceDB 中的覆盖与追加逻辑 (#18405)

llama-index-utils-workflow [0.3.1]#

  • 修复自定义 StopEvents 的 draw_all_possible_flows (#18347)

[2025-04-01]#

llama-index-core [0.12.28]#

  • 添加代码执行代理 + 文档 + 从零开始指南 (#18329)
  • 修复 RichPromptTemplate 的模板变量映射,添加文档 (#18309)
  • AgentWorkflow / ReActAgent / FunctionAgent / CodeActAgent 中支持多模态代理 (#18330)
  • 修复在新节点类中包含节点元数据进行哈希计算的问题 (#18303)
  • 修复从 Context.from_dict 加载时的 Context._events_queue 问题 (#18304)
  • 文档: 添加 Langfuse 检测 (#18321)

llama-index-embeddings-fastembed [0.3.1]#

  • 添加 providers kwarg (#18310)

llama-index-graph-stores-memgraph [0.3.1]#

  • 将 Memgraph 集成更新到最新语法 (#18319)

llama-index-indices-managed-llama-cloud [0.6.10]#

  • 客户端构建中的杂项修复 (#18323)

llama-index-llms-asi [0.1.0]#

  • 添加 asi llm 集成 (#18292)

llama-index-llms-dashscope [0.3.2]#

  • 使用新的工具处理和依赖版本更新 DashScope 集成 (#18311)

llama-index-llms-ipex-llm [0.3.1]#

  • 修复 IpexLLM 构造函数错误 (#18200)

llama-index-llms-litellm [0.4.1]#

  • LiteLLM: 更好地支持工具流,并支持多模态输入 (#18314)

llama-index-readers-obsidian [0.5.1]#

  • 修复: 防止符号链接引起路径遍历 (#18320)

llama-index-readers-papers [0.3.1]#

  • 修复: 使文件名哈希更稳健 (#18318)

llama-index-tools-mcp [0.1.1]#

  • 修复 json_type 是列表(多种可能类型)的情况 (#18306)

llama-index-vector-stores-clickhouse [0.4.1]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

llama-index-vector-stores-couchbase [0.3.1]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

llama-index-vector-stores-deeplake [0.3.3]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

llama-index-vector-stores-jaguar [0.3.1]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

llama-index-vector-stores-lantern [0.3.1]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

llama-index-vector-stores-nile [0.2.2]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

llama-index-vector-stores-milvus [0.7.2]#

  • [错误修复] Milvus 在索引已存在时创建索引 (#18315)
  • 为 milvus 向量存储添加更多单元测试 (#18331)

llama-index-vector-stores-oracledb [0.2.1]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

llama-index-vector-stores-singlestoredb [0.3.1]#

  • 修复: 修补多个 SQL 注入漏洞 (#18316)

[2025-03-28]#

llama-index-core [0.12.27]#

  • 通过延迟导入和加载 nltk 数据优化初始导入 (#18289)
  • 在工作流程步骤签名中支持推迟的类型提示 (#18225)

llama-index-llms-litellm [0.3.1]#

  • 特性: 为 LiteLLM 添加工具调用支持 (#18235)

llama-index-llms-openai [0.3.29]#

  • 添加 OpenAIResponses 类以支持 OpenAI 的 responses API (#18300)
  • 在被覆盖的方法中进行类型安全的结构化预测 (#18290)

llama-index-tools-dappier [0.1.0]#

  • 添加 Dappier 实时搜索和 AI 推荐工具 (#18211)

llama-index-vector-stores-milvus [0.7.1]#

  • Milvus Vector Store: 支持通过 BM25 进行全文搜索 (#18281)
  • 修复 Milvus 向量存储以处理文本字段检索

[2025-03-26]#

llama-index-core [0.12.26]#

  • 简化 FunctionAgent/ReActAgent 用于单代理工作流程的使用 (#18227)
  • 引入 RichPromptTemplate 用于类 jinja 模板 (#18178)
  • 添加结构化 llm 重排序器实现 (#18216)

llama-index-embeddings-azure-openai [0.3.2]#

  • 修复 AzureOpenAIEmbedding 类中 api_baseazure_deployment 互斥的问题 (#18219)
  • 修复 AzureOpenAIEmbedding 类中的 api_base 参数问题 (#18191)

llama-index-finetuning [0.3.1]#

  • 更新 SentenceTransformersFinetuneEngine 以暴露与 transformer 检查点相关的参数 (#18194)

llama-index-llms-dashscope [0.3.1]#

  • 为 dashscope llm 添加 astream_chatastream_complete (#18196)

llama-index-llms-bedrock [0.3.8]#

  • 废弃较旧的 google 和 bedrock 包 (#18210)
  • 添加 Bedrock 应用推理配置文件支持 (#18213)
  • 修复基础模型 ARN 的提供者解析问题 (#18283)

llama-index-llms-bedrock-converse [0.4.12]#

  • 在 bedrock converse 中不将 None 添加到聊天历史中 (#18206)
  • 添加新的亚太 Bedrock llm (#18045)
  • 在 converse chat 中处理带有工具的聊天消息为用户消息 (#18187)

llama-index-llms-gemini [0.4.13]#

  • 确保 stream_complete 累积文本并设置 delta (#18246)

llama-index-llms-google-genai [0.1.6]#

  • 废弃较旧的 google 和 bedrock 包 (#18210)
  • 修复 google genai 工具描述 (#18242)
  • 修复:在 google-genai 中支持 anyof, optional 和 union (#18231)

llama-index-llms-openai [0.3.27]#

  • 添加 o1-pro 支持 (#18207)
  • 改进 openai llm 中的默认图像质量 (#18258)

llama-index-llms-text-generation-inference [0.3.2]#

  • 修复 TextGenerationInference 中的 model_name 验证错误,TGI 端点不请求此参数并导致异常 (#18234)

llama-index-llms-vertx [0.4.4]#

  • 废弃较旧的 google 和 bedrock 包 (#18210)
  • Vertex LLM 不处理 FunctionCall 工具 (#18201)

llama-index-readers-file [0.4.7]#

  • 功能:通过为 pandas excel reader 添加带有列的头部信息来改进数据检索 (#18233)

llama-index-storage-chat-store-dynomodb [0.3.1]#

  • 功能:为 DynamoDB 聊天存储添加 TTL 支持 (#18084)

llama-index-storage-chat-store-redis [0.4.1]#

  • 修复 Redis 聊天存储中协程从未被等待的 Runtime 警告 (#18274)

llama-index-vector-stores-milvus [0.6.1]#

  • 转义 Milvus 过滤器中的单引号 (#18244)
  • 加速 Milvus async_add (#18243)

llama-index-vector-stores-qdrant [0.6.0]#

  • 更新 qdrant 以始终优先使用命名向量 (#18192)
  • 提升 qdrant Python 依赖版本 (#18273)

[2025-03-18]#

llama-index-core [0.12.25]#

  • 确保 CHUNKING_REGEX 在分割器中保留原始文本 (#18054)
  • 不使用 llama-index-readers-file 包,使用 SimpleDirectoryReader (#18173)
  • 改进了 utils.py 和 exec_utils.py 中的注解和错误处理 (#18153)
  • 为 SemanticDoubleMergingSplitterNodeParser 添加 build_semantic_nodes_from_nodes 方法 (#18114)
  • 修复:优化 Context 对象的内存管理 (#18170)
  • 修复:允许在 workflow 结束后从 context 流式传输事件 (#18174)
  • 功能:为 Context 类添加 clear 方法 (#18136)

llama-index-embeddins-clip [0.4.0]#

  • 解除 ClipEmbedding 依赖限制 (#18165)

llama-index-embeddings-netmind [0.1.0]#

  • 添加 netmind 集成 (#18078)

llama-index-indices-managed-llama-cloud [0.6.9]#

  • 修复 LlamaCloudCompositeRetriever 的 kwargs 问题 (#18141)

llama-index-llms-bedrock-converse [0.4.10]#

  • 错误修复:调用不带参数的工具 (#18143)
  • 为 BedrockConverse 的 chat 和 achat 方法添加 token 计数 (#18148)

llama-index-llms-contextual [0.0.1]#

  • 修复 Contextual GLM 问题 (#18145)

llama-index-llms-google-genai [0.1.4]#

  • genai 图像输出 (#18138)

llama-index-llms-langchain [0.6.1]#

  • 在 llama-index-llms-langchain 中将废弃的 predict 替换为 invoke (#18169)

llama-index-llms-netmind [0.1.0]#

  • 添加 netmind 集成 (#18078)

llama-index-llms-novita [0.1.0]#

  • 添加 NovitaAI llm 类 (#18134)

llama-index-postprocessor-aimon-rerank [0.1.0]#

  • AIMon re-ranker 集成到 LlamaIndex 节点后处理器中 (#18087)

llama-index-readers-mongodb [0.3.1]#

  • 功能 (mongo reader):字段提取器 (#18063)

llama-index-tools-vectara-query [0.3.1]#

  • 更新 Vectara Tool 以适应 VectaraIndex 的元数据变更 (#18126)

llama-index-vector-stores-azurecosmosnosql [1.3.2]#

  • 修复:AzureCosmosNoSQL vector_store;根据 ref_doc_id 删除 (#18120)

llama-index-vector-stores-pinecone [0.4.5]#

  • 提升兼容的 pinecone 版本 (#18113)

[2025-03-13]#

llama-index-core [0.12.24]#

  • 修复获取内容节点元数据模板重复的问题 (#18110)
  • 移除多模态向量存储/查询引擎中针对多模态 LLM 的断言 (#18112)
  • 修复:使 run_step 返回由步骤产生的所有事件 (#18082)
  • 修复(多模态节点):打开前检查图像路径是否为文件 (#18043)

llama-index-embeddings-google-genai [0.1.0]#

  • Google genai 嵌入 (#18079)

llama-index-graph-stores-neptune [0.3.2]#

  • 修复 Neptune 的 upsert_triplet 方法中的 TypeError (#18051)

llama-index-indices-managed-vectara [0.4.2]#

  • 更新 Vectara Index 以返回文档级别和页面级别的元数据 (#17976)

llama-index-llms-contextual [0.1.0]#

  • Contextual Generate 模型 (#17913)

llama-index-llms-google-genai [0.1.3]#

  • 使用 GenAI 包用于 Google (#17939)
  • 修复 gemini 角色 (#18108)
  • 修复空模型元数据引用 (#18109)
  • [BUG FIX] Google genai vertexai 错误 (#18070)

llama-index-memory-mem0 [0.3.0]#

  • Mem0Memory 集成问题:需要更新以适应 Mem0 API 参数变更 (#18066)

llama-index-postprocessor-contextual-rerank [0.1.0]#

  • Contextual re-ranker (#18075)

llama-index-readers-elasticsearch [0.3.1]#

  • 修复 ElasticsearchReader 的冗余问题 (#18106)

llama-index-readers-google [0.6.1]#

  • 使用 int 类型表示重定向 URI 端口 (#18097)

[2025-03-07]#

llama-index-core [0.12.23]#

  • 添加了 merging_separator 参数,允许在语义分割器中指定块合并分隔符 (#18027)
  • 添加了在 BaseWorkflowAgent 类中运行单智能体工作流的支持 (#18038)
  • 修复了在未指定明确系统消息时创建 ReactAgent 引发的错误 (#18041)
  • 为 TokenTextSplitter 添加了一个字段 keep_whitespaces (#17998)
  • 在 AgentWorkflow 中不将原始工具输出转换为字符串 (#18006)

llama-index-embeddings-ollama [0.6.0]#

  • 功能:为 OllamaEmbedding 类添加 client_kwargs 参数 (#18012)

llama-index-llms-anthropic [0.6.10]#

  • Anthropic 缓存和思考更新 (#18039)
  • 允许缓存工具结果 (#18028)
  • 支持缓存 Anthropic 系统提示 (#18008)
  • 确保恢复工作流实际有效 (#18023)
  • [MarkdownNodeParser] 添加可定制的头部路径分隔符字符 (#17964)
  • 功能:当停止事件是自定义时,从 run() 返回事件实例 (#18001)

llama-index-llms-azure-openai [0.3.2]#

  • AzureOpenAI: api_base 和 azure_endpoint 互斥 (#18037)
  • 为 AzureOpenAI 添加 base_url (#17996)

llama-index-llms-bedrock-converse [0.4.8]#

  • boto3 模型中消息文本是必需的 (#17989)

llama-index-llms-ollama [0.5.3]#

  • 使 Ollama LLM 中的 request_timeout 可选 (#18007)

llama-index-llms-mistralai [0.4.0]#

  • MistralAI 支持多模态内容块 (#17997)

llama-index-readers-file [0.4.6]#

  • 错误修复:当安装了 PyTorch 时,在 ImageVisionLLMReader 的推理中使用 torch.no grad() (#17970)

llama-index-storage-chat-store-mongo [0.1.0]#

  • 功能/Mongo 聊天存储 (#17979)

llama-index-core [0.12.23]#

  • 添加了 merging_separator 参数,允许在语义分割器中指定块合并分隔符 (#18027)
  • 添加了在 BaseWorkflowAgent 类中运行单智能体工作流的支持 (#18038)
  • 修复了在未指定明确系统消息时创建 ReactAgent 引发的错误 (#18041)
  • 为 TokenTextSplitter 添加了一个字段 keep_whitespaces (#17998)

[2025-02-28]#

llama-index-core [0.12.22]#

  • 修复 agentworkflow 最终响应上的工具调用跟踪问题 (#17968)

llama-index-readers-github [0.6.0]#

  • 确保 Github reader 使用 timeout 和 retries 参数 (#17959)

llama-index-readers-web [0.3.7]#

  • 杂项:更新 FireCrawlWebReader 集成以支持提取 (#17957)

[2025-02-27]#

llama-index-core [0.12.21]#

  • 修复:移除工作流测试中的警告 (#17943)
  • 修复:在按步骤运行工作流时考虑步骤工作者 (#17942)
  • 功能:在工作流类中自动检测自定义开始和停止事件 (#17865)
  • 功能/移除 retriever 工具模板覆盖 (#17909)
  • 仅在实际检测到 'Answer:' 时才修改 delta (#17901)
  • 修复 CitationQueryEngine 的 response_synthesizer 初始化函数问题 (#17897)
  • 修复 ChatSummaryMemoryBuffer._summarize_oldest_chat_history 问题 (#17845)
  • 修复:使 base64 检测全面更健壮 (#17930)
  • 修复:当步骤执行异步工作时,按步骤执行会中断 (#17914)
  • 更安全的工作流取消 + 修复恢复的上下文错误 (#17938)

llama-index-cli [0.4.1]#

  • 修复:在执行 shell 命令前转义用户输入 (#17953)
  • llamaindex-cli 正确处理 glob 模式 (#17904)

llama-index-embeddings-gaudi [0.2.1]#

  • 修复:移除 cache_dir Pydantic 字段验证 (#17947)

llama-index-indices-managed-vectara [0.4.1]#

  • 支持自定义 vectara_base_url (#17934)

llama-index-llms-anthropic [0.6.7]#

  • 修复:调用 Anthropic Messages API 时 tools 参数不能为 Null (#17928)

llama-index-llms-bedrock [0.3.4]#

  • 功能 (bedrock):添加 Claude 3.7 Sonnet 模型支持 (#17950)

llama-index-llms-bedrock-converse [0.4.7]#

  • 功能 (bedrock converse):添加 Meta Llama 3.3 70B instruct 模型支持 (#17915)

llama-index-llms-gemini [0.4.11]#

  • 功能:将 Gemini 的最大允许模型温度更改为 2.0 (#17886)

llama-index-llms-ibm [0.3.3]#

  • 更新 WatsonxLLM.metadata 属性,避免当 model_limits 字段不存在时发生验证错误 (#17839)

llama-index-llms-openai [0.3.24]#

  • 添加 gpt-4.5-preview (#17954)
  • 修复:类似 openai 的 agent 通过 vLLM 进行流式传输 (#17927)
  • 修复空的助手消息情况下 "Invalid value for 'content': expected a string, got null." openai 错误 (#17921)

llama-index-multi-modal-llms-azure-openai [0.4.0]#

  • 重构为在正常 AzureOpenAI llm (也支持使用内容块的图像) 之上的轻量级包装器,以防止代码重复 (#17951)

llama-index-multi-modal-llms-huggingface [0.4.2]#

  • 支持 LlamaMultiModal 类仅文本提示 (#17855)

llama-index-multi-modal-llms-openai [0.5.0]#

  • 重构为在正常 OpenAI llm (也支持使用内容块的图像) 之上的轻量级包装器,以防止代码重复 (#17951)

llama-index-postprocessor-ibm [0.1.0]#

  • 功能:添加 ibm-watsonx-ai re-rank 集成 (#17900)

llama-index-readers-web [0.3.6]#

  • 修复:在 KnowledgeBaseWebReader 中遵循 max_depth (#17949)

llama-index-retrievers-tldw [0.0.1]#

  • tl;dw AI 对 Retrievers 的集成 (#17872)

llama-index-tools-valyu [0.1.0]#

  • 功能:添加 Valyu 集成 (#17892)

llama-index-vector-stores-azureaisearch [0.3.6]#

  • azureaisearch: 在创建索引时将 default mySemanticConfig 作为名称添加 (#17908)

llama-index-vector-stores-databricks [0.4.0]#

  • 构建:为 llama-index-vector-stores-databricks 支持 python3=3.9,<4.0 (#17937)

llama-index-vector-stores-duckdb [0.3.1]#

  • 修复:在 DuckDB 向量存储的 SQL 查询中转义参数 (#17952)

llama-index-vector-stores-elasticsearch [0.4.2]#

  • 修复:修复 adelete 方法并在 elasticsearch 向量存储中添加 delete_nodes 方法 (#17890)

[2025-02-25]#

llama-index-core [0.12.20]#

  • 功能:为检索到的图像节点附加更多元数据 (#17868)
  • 修复:当 LLM 响应不包含聊天消息时 FunctionAgent 和 ReActAgent 会报错 (#17884)
  • 修复:将嵌入函数转换为异步 (#17888)

llama-index-networks [0.6.0]#

  • 修复:提升 python-jose 版本 (#17866)

llama-index-vector-stores-redis [0.5.0]#

  • 修复:更新以适应 redisvl 0.4.0 (#17902)

llama-index-llms-anthropic [0.6.6]#

  • 修复:添加对 Claude 3.7 系列模型的支持 (#17905)

llama-index-readers-microsoft-outlook-emails [0.1.1]#

  • 修复:microsoft_outlook_emails 集成的导入路径不正确 (#17867)

llama-index-llms-vertex [0.4.3]#

  • 修复:带有工具调用的聊天消息错误地映射到 Vertex 消息 (#17893)

llama-index-llms-bedrock-converse [0.4.6]#

  • 功能:添加 Claude 3.7 Sonnet 模型支持 (#17911)

[2025-02-17]#

llama-index-core [0.12.19]#

  • 添加了同步/异步 Function 工具回调 (#16637)
  • 调整了用于模板变量的正则表达式

llama-index-experimental [0.5.4]#

  • 修复了实验性 JSONalyzeQueryEngine 的导入错误 (#15642)

llama-index-graph-stores-memgraph [0.3.0]#

  • 修复 memgraph 的版本问题 (#17842)

llama-index-indices-managed-llama-cloud [0.6.7]#

  • 图像元数据测试 + 同步实现 (#17844)

llama-index-postprocessor-nvidia-rerank [0.4.2]#

  • NVIDIARerank 添加 http_client 参数以传递自定义客户端 (#17832)

llama-index-llms-mistralai [0.3.3]#

  • Mistral saba 支持 (#17847)

[2025-02-16]#

llama-index-core [0.12.18]#

  • 改进 prompt helper 多模态支持 (#17831)
  • 保留来自 @dispatcher.span 的返回类型 (#17817)
  • 抑制 nltk downloader (#17816)
  • astream_chat() 中保留对 asyncio 任务的引用 (#17812)

llama-index-indices-managed-llama-cloud [0.6.6]#

  • 当从 llamacloud retriever 返回图像节点时包含文件和页面元数据 (#17823)
  • 改进 llamacloud 索引的错误日志 (#17827)

llama-index-indices-managed-vertexai [0.2.1]#

  • 添加 textnode 元数据 (#17814)

llama-index-llms-anthropic [0.6.5]#

  • 功能:✨ 添加支持 anthropic claude-3-5-haiku-latest 模型名称 (#17818)

llama-index-llms-openai [0.3.20]#

  • 较旧 o1 模型的 openai 开发者消息修复 (#17833)

llama-index-readers-microsoft-outlook-emails [0.1.0]#

  • 功能:添加 Microsoft Outlook 电子邮件读取器集成 (#17829)

llama-index-tools-mcp [0.1.0]#

  • 功能:添加 mcp 工具规范 (#17795)

llama-index-tools-playwright [0.1.1]#

  • 修复:将 Playwright 浏览器工具从同步更改为异步 (#17808)

llama-index-vector-stores-azureaisearch [0.3.5]#

  • 扩展 AzureAISearchVectorStore 过滤选项 (#17811)
  • azureaisearch: 对于混合搜索,优先使用 hybrid_top_k 而不是 similarity_top_k (#17612)
  • azureaisearch: 将语义配置名称的默认值设置为 None (#17807)

llama-index-vector-stores-mariadb [0.3.1]#

  • MariaDB 向量存储集成:添加调优参数和实用函数 (#17791)

[2025-02-11]#

llama-index-core [0.12.17]#

  • 添加了对聊天消息中 AudioBlocks 的支持(目前仅限 OpenAI)(#17780)
  • 修复:SimpleDirectoryReader 元数据处理时区不一致 (#17724)

llama-index-agent-openai [0.4.4]#

  • 在 openai assistant agent 中添加了额外参数 (#17729)
  • 避免 aput_messages 中的异步竞态条件 (#17754)

llama-index-embeddings-siliconflow [0.2.1]#

  • 为 siliconflow llm 和 embeddings 添加重试逻辑 (#17771)

llama-index-graph-rag-cognee [0.1.3]#

  • Cognee 集成版本更新 (#17769)

llama-index-graph-stores-neptune [0.3.1]#

  • 修复:更新 neptune 集成中的 upsert_triplet 方法 (#17727)

llama-index-llms-gemini [0.4.9]#

  • 修复 gemini 工具选择 (#17747)
  • 修复 gemini 多轮工具调用问题 (#17764)
  • 杂项:为最新 gemini 结构化生成添加测试 (#17762)

llama-index-llms-ibm [0.3.2]#

  • 修复:更新 WatsonxLLM.stream_chat() 以适应即将发布的 ibm-watsonx-ai 1.2.7 并避免错误 (#17772)

llama-index-llms-langchain [0.6.0]#

  • 更新 llama-index-llms-langchain 以使用最新的 langchain API - 移除废弃警告 (#17770)

llama-index-llms-ollama [0.5.2]#

  • Ollama 原生多模态支持 ImageBlocks (#17759)

llama-index-llms-openai [0.3.19]#

  • 为 openai 添加音频支持 (#17780)

llama-index-llms-openvino-genai [0.1.0]#

  • 添加 llama-index-llms-openvino-genai 包 (#17714)

llama-index-llms-siliconflow [0.2.1]#

  • 为 siliconflow llm 和 embeddings 添加重试逻辑 (#17771)

llama-index-readers-whisper [0.1.0]#

  • 添加 OpenAI Whisper 读取器 (#17778)

llama-index-retrievers-bm25 [0.5.2]#

  • BM25Retriever: UnicodeError 处理和编码灵活性改进 (#17643)

llama-index-retrievers-kendra [0.1.0]#

  • 添加 kendra retriever (#17760)

llama-index-tools-jira [0.1.0]#

  • Jira 工具集成 (#17763)

llama-index-tools-playwright [0.1.0]#

  • 功能:Playwright 浏览器工具 (#17706)

llama-index-vector-stores-elasticsearch [0.4.1]#

  • 遗漏了删除查询的关键词后缀 (#17750)

[2025-01-05]#

llama-index-core [0.12.16]#

  • 在执行 ReAct 时,对某些模型发出的开头空白符更宽松 (#17701)
  • 修复 user_msgchat_history AgentWorkflow 输入问题 (#17690)

llama-index-embeddings-oci-data-science [0.1.0]#

  • 添加 OCI Data Science 模型部署嵌入集成 (#17243)

llama-index-embeddings-vllm [0.1.0]#

  • 添加 vLLM 离线推理对嵌入的支持 (#17675)

llama-index-embeddings-voyageai [0.3.5]#

  • 小型异步 voyageai 修复 (#17698)

llama-index-llms-gemini [0.4.7]#

  • gemini 2.0 支持 (#17720)
  • 功能:支持 gemini (google-generativeai) 的基本函数调用 (#17696)

llama-index-llms-oci-data-science [0.1.0]#

  • 添加 OCI Data Science 模型部署 LLM 集成 (#17241)

llama-index-llms-oci-genai [0.3.1]#

  • 传递 auth_file_location 的选项,以便覆盖默认配置文件位置,即 ~/.oci/config (#17695)

llama-index-llms-ollama [0.5.1]#

  • 修复:在流式传输时避免遗漏工具调用

llama-index-llms-openai [0.3.17]#

  • 修复:O1 中的 max_tokens (#17703)
  • o3 mini 支持 (#17689)
  • 修复 max_tokens,为 openai 推理模型添加 reasoning_effort (#17694)

llama-index-readers-obsidian [0.5.0]#

  • 改进的 Obsidian 读取器 (#17699)

llama-index-tools-scrapegraph [0.1.1]#

  • 功能:添加新的 scrapegraph 端点 (#17709)

[2025-01-31]#

llama-index-core [0.12.15]#

  • 为 FunctionCallingLLM.predict_and_call 添加 error_on_tool_error 参数 (#17663)
  • 从 pydantic 字段获取工具描述 (#17679)
  • 修复:使 ctx._events_buffer 可 JSON 序列化 (#17676)
  • 功能:允许排除空文件 simple directory reader (#17656)
  • 改进 markdown llm 输出解析 (#17577)
  • 默认计划优化提示中的小型拼写错误修复 (#17644)

llama-index-agent-openai [0.4.3]#

  • 修复并行工具调用时重复的来源问题 (#17645)

llama-index-embeddings-text-embeddings-inference [0.3.2]#

  • 为 TextEmbeddingsInference 添加 endpoint 参数 (#17598)

llama-index-llms-bedrock-converse [0.4.5]#

  • 修复 bedrock 函数调用 (#17658)

llama-index-llms-cortex [0.1.0]#

  • 添加 Snowflake Cortex 集成 (#17585)

llama-index-llms-fireworks [0.3.2]#

  • Deepseek-r1 现在受 fireworks 支持 (#17657)
  • Deepseek-v3 现在受 fireworks 支持 (#17518)

llama-index-llms-gemini [0.4.5]#

  • 将聊天装饰器添加到异步调用中 (#17678)

llama-index-llms-llama-cpp [0.4.0]#

  • 更新 llama-cpp 集成 + 文档 (#17647)

llama-index-vector-stores-azureaisearch [0.3.3]#

  • 功能/修复由于硬编码参数导致的 Azure AI Search 混合语义搜索不可用问题 (#17683)

llama-index-vector-stores-pinecone [0.4.4]#

  • get_nodes() 现在接受 include_values 参数以返回嵌入 (#17635)

[2025-01-25]#

llama-index-core [0.12.14]#

  • 修复非 OpenAI LLM 的 agentworkflow 交接问题 (#17631)
  • 对多智能体工作流演示 notebook 的小型修复 (#17628)

llama-index-embeddings-bedrock [0.5.0]#

  • 实现异步 bedrock 嵌入 (#17610)

llama-index-llms-bedrock-converse [0.4.4]#

  • 修复 bedrock converse 中的提示堆叠问题 (#17613)

llama-index-llms-deepseek [0.1.0]#

  • DeepSeek 官方 API LLM (#17625)

llama-index-readers-google [0.6.0]#

  • GoogleDriveReader 支持文件扩展名 (#17620)

[2025-01-23]#

llama-index-core [0.12.13]#

  • 修复 header_path 错误,涉及 MarkdownNodeParser 中的 markdown 级别与栈深度 (#17602)
  • 高级 text-to-sql 示例行,为 few-shot 提示添加行检索 (#17479)
  • 使 React observation 的消息角色可配置 (#17521)
  • 修复 AgentWorkflow 中重建工具的问题 (#17596)
  • 在聊天模板中支持内容块 (#17603)
  • 通过新的 DocumentContextExtractor 添加上下文检索支持 (#17367)

llama-index-graph-stores-memgraph [0.2.1]#

  • Memgraph 集成的向量索引支持 (#17570)

llama-index-graph-stores-neo4j [0.4.6]#

  • 改进 neo4j 对象的连接并添加了一些测试 (#17562)

llama-index-indices-managed-llama-cloud [0.6.4]#

  • 为复合检索添加框架集成 (#17536)

llama-index-llms-langchain [0.5.1]#

  • 流式传输时获取有效字符串 (#17566)

llama-index-llms-mistralai [0.3.2]#

  • 更新 mistral 中的函数调用模型 (#17604)

llama-index-llms-openai [0.3.14]#

  • 修复工具调用中 openai.BadRequestError: Invalid value for 'content': expected a string, got null 错误 (#17556)

llama-index-readers-file [0.4.3]#

  • 重构 markdown_to_tups 方法以更好地处理多级头部 (#17508)

llama-index-readers-web [0.3.5]#

  • 功能:Agentql Web 加载器 (#17575)

llama-index-tools-linkup-research [0.3.0]#

  • 添加 linkup 工具 (#17541)

llama-index-tools-notion [0.3.1]#

  • 修复:更正 NotionPageReader 中 "load_data" 的输入参数 (#17529)

llama-index-vector-stores-pinecone [0.4.3]#

  • 构建:🆙 将 pinecone-client 替换为 pinecone 包 (#17587)

llama-index-vector-stores-postgres [0.4.2]#

  • 添加对 halfvec 向量类型的支持 (#17534)

[2025-01-20]#

llama-index-core [0.12.12]#

  • 功能:添加 AgentWorkflow 系统以支持单智能体和多智能体工作流 (#17237)
  • 修复 ImageNode 中的图像路径验证问题 (#17558)

llama-index-indices-managed-vectara [0.4.0]#

  • (破坏性变更) API 迁移 (#17545)

llama-index-llms-anthropic [0.6.4]#

  • 功能:支持 Anthropic 直接处理 PDF (#17506)

llama-index-llms-fireworks [0.3.1]#

  • Deepseek-v3 现在受 fireworks 支持 (#17518)

llama-index-llms-stepfun [1.0.0]#

  • 功能:添加 stepfun 集成 (#17514)

llama-index-multi-modal-llms-gemini [0.5.0]#

  • 重构:使 GeminiMultiModal 成为 Gemini 的轻量级包装器 (#17501)

llama-index-postprocessor-longllmlingua [0.4.0]#

  • 添加 longllmlingua2 集成 (#17531)

llama-index-readers-web [0.3.4]#

  • 功能:Hyperbrowser Web 读取器 (#17489)

[2025-01-15]#

llama-index-core [0.12.11]#

  • 修复:MediaResource 验证器中的 bug (#17509)
  • 在 MarkdownElementNodeParser 的 md 到 df 转换中处理 pandas 错误 (#17511)
  • 错误修复:重复的引用节点 (#17440)
  • 通过更新 MarkdownReader 中的 markdown 格式修复了问题 #17397 (#17429)
  • 功能:通过 additional_kwargs 支持向 ChatMessage 添加图像 (#17477)
  • 功能:异步语义分割节点解析器 (#17449)
  • schema llm 提取器中更多异常处理 (#17432)

llama-index-agent-openai [0.4.2]#

  • OpenAIAgentWorker 的异步内存管理 (#17375)

llama-index-embeddings-huggingface [0.5.0]#

  • Hugging Face 多模态嵌入支持 (#17463)

llama-index-embeddings-gemini [0.3.1]#

  • 为 gemini 添加请求选项 (#17452)

llama-index-embeddings-opea [0.1.0]#

  • 在 Llama-Index 中添加对 OPEA LLM 的支持 (#16666)

llama-index-embeddings-upstage [0.4.1]#

  • 错误修复:修复 upstage 嵌入可用模型映射 (#17460)

llama-index-graph-stores-neo4j [0.4.5]#

  • 修复 neo4j schema 错误 (#17448)

llama-index-llms-gemini [0.4.3]#

  • 为 gemini 添加请求选项 (#17452)

llama-index-llms-opea [0.1.0]#

  • 在 Llama-Index 中添加对 OPEA LLM 的支持 (#16666)

llama-index-llms-openai [0.3.13]#

  • 调整 openai 模型温度以接受 0 到 2 之间的值 (#17453)

llama-index-multi-modal-llms-bedrock [0.1.0]#

  • 添加多模态 Bedrock 集成 (#17451)

llama-index-postprocessor-bedrock-rerank [0.3.1]#

  • 如果输入节点数量较少,则更改 top_n (#17374)

llama-index-readers-slack [0.3.1]#

  • 添加了仅允许公共 Slack 频道的功能 (#17399)

llama-index-storage-chat-store-tablestore [0.1.0]#

  • Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-storage-docstore-tablestore [0.1.0]#

  • Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-storage-index-store-tablestore [0.1.0]#

  • Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-storage-kvstore-tablestore [0.1.0]#

  • Tablestore 支持 ChatStore/KvStore/DocStore/IndexStore (#17473)

llama-index-vector-stores-mariadb [0.3.0]#

  • MariaDB 向量存储集成中支持 MariaDB 11.7 (#17497)

llama-index-vector-stores-neptune [0.3.1]#

  • 添加测试,修复缺失方法 (#17485)

llama-index-vector-stores-qdrant [0.4.3]#

  • 为 Qdrant Vector store 添加新的操作符 (#17490)

[2024-12-31]#

llama-index-core [0.12.10]#

  • 移除 schema llm 提取器中的断言 (#17425)
  • 功能:支持 typing.Annotated 以在 FunctionTools 中添加参数描述 (#17411)
  • 猜测 ImageNode 的 image_mimetype (#17422)

llama-index-embeddings-nvidia [0.3.1]#

  • NVIDIA 支持 v2 嵌入和重排 NIM (#17410)

llama-index-embeddings-openvino [0.5.1]#

  • 更新 OpenVINO 包的依赖项 (#17419)

llama-index-multi-modal-llms-openai [0.4.2]#

  • 为多模态 llms 添加对 gpt-4o-2024-08-06 的支持 (#17405)

llama-index-packs-raptor [0.3.1]#

  • 修复 llama_index.packs.raptor 树遍历检索问题 (#17406)

llama-index-postprocessor-openvino-rerank [0.4.1]#

  • 更新 OpenVINO 包的依赖项 (#17419)

llama-index-readers-file [0.4.2]#

  • 从 SimpleDirectoryReader 的默认加载器中移除 MarkdownReader (#17412)

llama-index-core [0.12.9]#

  • 清理 schema 提取器中的类型提示 (#17394)
  • 修复处理格式错误的 LLM 响应时 LLM Reranking 中的 IndexError (#17353)

llama-index-llms-bedrock-converse [0.4.3]#

  • 修复 Bedrock Converse 工具使用中的回归问题 (#17364)

llama-index-llms-sagemaker-endpoint [0.3.1]#

  • 在 SageMakerLLM 中将 aws_region_name 传递给 get_aws_service_client() (#12000)

llama-index-postprocessor-voyageai-rerank [0.3.2]#

  • VoyageAIRerank 构造函数截断修复 (#17343)

llama-index-readers-gitlab [0.3.1]#

  • 修复:正确添加 Gitlab Repo 的 blob 文档 (#17392)

llama-index-readers-rss [0.3.2]#

  • 修复 rss 中的小问题 (#17351)

llama-index-readers-web [0.3.3]#

  • 修复:防止 get_article_urls 中的无限递归 (#17360)

llama-index-vector-stores-azureaisearch [0.3.2]#

  • azureaisearch: 为异步查询添加语义搜索模式支持 (#17335)

llama-index-vector-stores-azurecosmosnosql [1.3.1]#

  • 修复 storeindex cosmosnosql 查询问题 - (BadRequest) (#17385)

llama-index-vector-stores-milvus [0.5.0]#

  • 功能:Milvus 异步 (#17378)

llama-index-vector-stores-opensearch [0.5.2]#

  • 修复属性名称中的拼写错误 (#17365)
  • 异步 aoss 向量存储初始化时的错误修复 (#17340)

llama-index-vector-stores-tablestore [0.2.2]#

  • TablestoreVectorStore: 支持混合查询,修改一些文档 (#17366)
  • TablestoreVectorStore 在写入存储时检查嵌入的维度 (#17321)

llama-index-vector-stores-qdrant [0.4.2]#

  • query_str 为 None 时,qdrant 过滤器修复 (#17377)

llama-index-vector-stores-weaviate [1.3.1]#

  • 为 weaviate 实现 client_kwargs["custom_batch"] (#17347)

[2024-12-20]#

llama-index-core [0.12.8]#

  • 修复文档序列化中排除文本的问题 (#17341)
  • 修复 awrite_response_to_history 中缺失 aput 的问题 (#17338)

llama-index-graph-rag-cognee [0.1.0]#

  • Cognee 集成 (#17314)

llama-index-llms-openai [0.3.12]#

  • 调整 o1 函数调用要求 (#17328)

[2024-12-18]#

llama-index-core [0.12.7]#

  • 修复:为 langchain 回调处理程序添加超时 (#17296)
  • 修复:使 Document 序列化事件更具向后兼容性 (#17312)

llama-index-embeddings-voyageai [0.3.4]#

  • 暴露 VoyageAI 嵌入模型的额外关键词参数 (#17315)

llama-index-llms-keywordsai [0.1.0]#

  • 添加了 KeywordsAI LLM (#16860)

llama-index-llms-oci-genai [0.4.0]#

  • 添加 OCI Generative AI 工具调用支持 (#16888)

llama-index-llms-openai [0.3.11]#

  • 支持新的 o1 模型 (#17307)

llama-index-postprocessor-voyageai-rerank [0.3.1]#

  • VoyageAI Reranker 可选 API Key (#17310)

llama-index-vector-stores-azureaisearch [0.3.1]#

  • 改进异步搜索客户端处理 (#17319)

llama-index-vector-stores-azurecosmosmongo [0.4.0]#

  • CosmosDB 插入时间戳错误修复 (#17290)

llama-index-vector-stores-azurecosmosnosql [1.3.0]#

  • CosmosDB 插入时间戳错误修复 (#17290)

[2024-12-17]#

llama-index-core [0.12.6]#

  • [错误修复] 确保 StopEvent 在 Workflow 运行后从 Context._in_progress["_done"] 中清除 (#17300)
  • 修复:为 langchain 回调处理程序添加超时 (#17296)
  • 调整 react 提示中的 User 与 tool (#17273)
  • 重构:重构 Document 以实现原生多模态 (#17204)
  • 修复:使 ImageDocument 继承自 Document,向后兼容 (#17259)
  • 修复:接受 ImageBlock 中已 base64 编码的数据 (#17244)
  • 修复(指标):修复了 NDCG 计算并更新了之前的测试 (#17236)
  • 修复:移除 llama-index-core 中对 llama-index-legacy 的依赖 (#17231)
  • 优化了函数工具的默认文档生成 (#17208)

llama-index-embeddings-voyageai [0.3.3]#

  • 添加对 voyageai >=0.3.0 的支持 (#17120)
  • 引入 VoyageAI 的新多模态嵌入模型 (#17261)
  • VoyageAI 多模态嵌入,修正 (#17284)

llama-index-experimental [0.5.2]#

  • 修复了实验性 JSONalyzeQueryEngine 的导入错误 (#17228)

llama-index-grapg-stores-neo4j [0.4.4]#

  • 添加 cypher 校正器并允许图 schema 过滤 (#17223)
  • 为 neo4j 图添加超时配置 (#17267)
  • 为 neo4j 增强 schema 添加文本和嵌入类型 (#17289)

llama-index-llms-anthropic [0.6.3]#

  • 为 anthropic 添加内容块 (#17274)
  • 不向 anthropic 发送空内容 (#17278)
  • 为 v0.41.0 版本更新 anthropic 类型导入 (#17299)
  • 修复 Anthropic 分词器协议 (Devin 修复) (#17201)

llama-index-llms-bedrock [0.3.3]#

  • 添加 Amazon bedrock 护栏 (#17281)

llama-index-llms-bedrock-converse [0.4.2]#

  • 添加 Amazon bedrock 护栏 (#17281)

llama-index-llms-gemini [0.4.1]#

  • Gemini 2.0 支持 (#17249)

llama-index-llms-mistralai [0.3.1]#

  • 为 mistral 聊天消息添加工具调用 id/name (#17280)

llama-index-llms-nvidia [0.3.1]#

  • 添加 llama 3.3-70b 作为具有函数调用能力的模型 (#17253)

llama-index-llms-openai [0.3.10]#

  • 修复工具调用的 openai 消息字典 (#17254)

llama-index-llms-text-generation-inference [0.3.1]#

  • 修复:TGI 上下文窗口 (#17252)

llama-index-multi-modal-llms-anthropic [0.3.1]#

  • 处理 anthropic 多模态 llms 中更多的响应类型 (#17302)

llama-index-readers-confluence [0.3.1]#

  • 支持 Confluence cookie (#17276)

llama-index-vector-stores-milvus [0.4.0]#

  • 从 "vector_store_kwargs" 中解析 "milvus_search_config" (#17221)
  • 重构和优化 milvus 代码 (#17229)

llama-index-vector-stores-pinecone [0.4.2]#

  • 处理检索到的空 Pinecone 索引值 (#17242)

llama-index-vector-stores-qdrant [0.4.1]#

  • 功能:为 MetadataFilter 和 QdrantVectorStore 添加 NOT 过滤条件 (#17270)

llama-index-vector-stores-weaviate [1.3.0]#

  • 为 weaviate 向量存储集成添加异步支持 (#17220)

[2024-12-09]#

llama-index-core [0.12.5]#

  • 优化了函数工具的默认描述生成 (#17208)

llama-index-multi-modal-llms-azure-openai [0.3.2]#

  • 修复:放宽对 openai llm 依赖项的限制 (#17210)

llama-index-postprocessor-pinecone-native-rerank [0.1.0]#

  • 功能:集成 Pinecone 托管的 rerankers (#17192)

llama-index-tools-scrapegraph [0.1.0]#

  • 添加 Scrapegraph 工具集成 (#17238)

llama-index-vector-stores-postgres [0.3.3]#

  • 更新 pgvector 依赖项至 0.3.6 版本 (#17195)

[2024-12-08]#

llama-index-core [0.12.4]#

  • 修复同步和异步结构化流式传输问题 (#17194)
  • 解除 pydantic 限制,允许 2.8 或更高版本 (#17193)
  • 更新核心结构化预测流式传输,添加 ollama 结构化预测 (#17188)
  • 提升 llama-index-core 中的 tenacity 依赖项版本 (#17178)

llama-index-indices-managed-vectara [0.3.1]#

  • 为 Vectara as_query_engine 添加 Verbose 参数 (#17176)

llama-index-llms-ollama [0.5.0]#

  • 更新核心结构化预测流式传输,添加 ollama 结构化预测 (#17188)

llama-index-llms-perplexity [0.3.2]#

  • 修复 perplexity 的消息格式问题 (#17182)

llama-index-readers-web [0.3.1]#

  • 在 WholeSiteReader 中添加使用 URI 作为文档 ID 的可能性 (#17187)

llama-index-vector-stores-chroma [0.4.1]#

  • 错误修复:使 llama-index-vectorstore-chromadb 与 chromadb v0.5.17 一起工作 (#17184)

[2024-12-06]#

llama-index-core [0.12.3]#

  • 使用单元测试覆盖 SimpleDirectoryReader (#17156)
  • 文档:重写不使用多模态 LLM 的 openai 图像推理示例 (#17148)
  • 修复(指标):修复了 NDCG 计算并添加了全面的测试用例 (#17126)
  • 功能:改进 ImageBlock (#17111)
  • 移除 ChatMemoryBuffer 中遗忘的 print (#17114)
  • [修复] 将 JSONalyzeQueryEngine 移至实验性 (#17110)

llama-index-embeddings-clip [0.3.1]#

  • 解除 clip 模型使用限制 (#17162)

llama-index-embeddings-openai [0.3.1]#

  • 修复/openai-embedding-retry (#17072)

llama-index-embeddings-text-embeddings-inference [0.3.1]#

  • TEI 中正确的 auth token (#17158)

llama-index-indices-managed-llama-cloud [0.6.3]#

  • 杂项:修复 LlamaCloudRetriever 中的 httpx_client 拼写错误 (#17101)
  • 修复:LlamaCloudRetriever 中 project id 变量错误 (#17086)

llama-index-llms-bedrock-converse [0.4.1]#

  • 将 AWS Nova 模型添加到 Bedrock Converse (#17139)

llama-index-llms-ollama [0.4.2]#

  • Ollama LLM: 为 _get_response_token_counts 添加 TypeError 异常 (#17150)

llama-index-llms-sambanovasystems [0.4.3]#

  • openai 识别在 url 中的变化 (#17161)

llama-index-memory-mem0 [0.2.1]#

  • 修复 mem0 版本检查 (#17159)

llama-index-multi-modal-llms-openai [0.4.0]#

  • 修复:使 OpenAIMultiModal 与新的 ChatMessage 一起工作 (#17138)

llama-index-postprocessor-bedrock-rerank [0.3.0]#

  • 添加 AWS Bedrock Re-ranker (#17134)

llama-index-readers-file [0.4.1]#

  • 更新 unstructured reader 的文档 ID (#17160)

llama-index-retrievers-duckdb-retriever [0.4.0]#

  • 修复:在 DuckDBRetriever 中使用预处理语句 (#17092)

llama-index-vector-stores-postgres [0.3.2]#

  • 无论 schema 状态如何,都为 pgvector 创建表 (#17100)

llama-index-vector-stores-weaviate [1.2.4]#

  • 使 weaviate 中的 alpha 不为 None (#17163)
  • 使 Weaviate Vector Store 集成处理复杂属性 (#17129)
  • 为 Weaviate Vector Store 集成添加对 IS_EMPTY 元数据过滤器的支持 (#17128)
  • 使 Weaviate Vector Store 集成支持嵌套元数据过滤 (#17107)

[2024-11-26]#

llama-index-core [0.12.2]#

  • 改进工作流的堆栈跟踪日志记录 (#17040)
  • 工作流检查点的初始版本 (#17006)
  • 修复基础组件测试 (#17062)
  • 将代码分割器测试标记为可选 (#17060)
  • 更新贡献指南和开发依赖项 (#17051)
  • 修复 WorkflowDone 异常的处理 (#17047)

llama-index-embeddings-vertex [0.3.1]#

  • 从 vertex 依赖项中移除 pyarrow (#16997)

llama-index-llms-ibm [0.3.1]#

  • IBM watsonx.ai acomplete 和 achat 集成 (#17034)

llama-index-llms-openai [0.3.2]#

  • 修复某些场景下 openai 的 tool_choice 问题 (#17058)

llama-index-llms-perplexity [0.3.1]#

  • 修复:更新 perplexity 模型,添加单元测试和小型修复 (#17045)

llama-index-llms-vertex [0.4.1]#

  • 从 vertex 依赖项中移除 pyarrow (#16997)

llama-index-multi-modal-llms-huggingface [0.2.1]#

  • 添加 stream_chat 并有条件地将 AutoModelClass 设置为 MllamaForConditionalGeneration (#17031)

llama-index-readers-box [0.3.1]#

  • 修复 box api - mypy 损坏问题 (#17061)

llama-index-vector-stores-deeplake [0.3.2]#

  • deeplake v3 向后兼容性 (#17057)

llama-index-vector-stores-mongodb [0.6.0]#

  • MongoDB Atlas: 添加搜索索引命令和元数据过滤器的测试/示例 (#15265)

llama-index-vector-stores-postgres [0.3.1]#

  • 在 pgvector 表创建期间,先检查 schema 是否存在再进行其余初始化 (#17063)

[2024-11-20]#

llama-index-core [0.12.1]#

  • 暂时将 pydantic 锁定至 <2.10 版本
  • 功能 [react-multimodal]: 在 MultimodalReActAgentWorker 中添加 Gemini 图像支持 (#16992)

llama-index-indices-managed-llama-cloud [0.6.2]#

  • llama-cloud-index 中的 api_key 拼写错误 (#17001)

llama-index-llms-openai [0.3.1]#

  • 添加对最新 gpt-4o 模型的支持 (#17015)

llama-index-llms-zhipuai [0.2.1]#

  • zhipuai api 添加 stop 参数 (#16996)

llama-index-multi-modal-llms-mistralai [0.3.1]#

  • 添加对 Mistral 最新模型的支持 (#16991)

llama-index-multi-modal-llms-replicate [0.3.1]#

  • 修复:更正 replicate multi modal 包中的拼写错误 (#16998)

llama-index-vector-stores-pinecone [0.4.1]#

  • 为 pinecone 添加 get_nodes 方法 (#17007)

[2024-11-17]#

注意: 更新到 v0.12.0 将需要升级所有其他 llama-index-* 包!所有包都已升级版本。以下仅列出主要变更。

llama-index-core [0.12.0]#

  • 放弃 Python 3.8 支持,解除 numpy 限制 (#16973)
  • Kg/动态 PG 三元组检索限制 (#16928)

llama-index-indices-managed-llama-cloud [0.6.1]#

  • 为 LlamaCloudIndex 添加 ID 支持并更新 from_documents 逻辑,现代化 API (#16927)
  • 允许上传文件时跳过等待摄取 (#16934)
  • 添加对文件端点的支持 (#16933)

llama-index-indices-managed-vectara [0.3.0]#

  • 添加自定义提示参数 (#16976)

llama-index-llms-bedrock [0.3.0]#

  • messages/completion 到 prompt 的小型修复 (#15729)

llama-index-llms-bedrock-converse [0.4.0]#

  • 修复 bedrock converse 的异步流式传输问题 (#16942)

llama-index-multi-modal-llms-nvidia [0.2.0]#

  • 添加 VLM 支持 (#16751)

llama-index-readers-confluence [0.3.0]#

  • 允许将参数传递给 Confluence 客户端 (#16961)

llama-index-readers-github [0.5.0]#

  • 为 GithubRepositoryReader 添加基础 URL 提取方法 (#16926)

llama-index-vector-stores-weaviate [1.2.0]#

  • 允许传入 Weaviate vector store kwargs (#16954)

[2024-11-11]#

llama-index-core [0.11.23]#

  • 修复流式传输和发生异常时的工作流超时问题 (#16852)
  • core.multi_modal_llms.generic_utils 的新函数 (#16896)
  • 添加了 core.multimodal 的 docstrings 和单元测试 (#16872)
  • 实际将摄取管道的 num_workers 设置为 num_cpus (#16803)

llama-index-embeddings-nvidia [0.2.5]#

  • 跳过 nvdev 嵌入模型的模型验证 (#16883)

llama-index-embeddings-modelscope [0.3.0]#

  • 添加 ModelScope 嵌入支持 (#16873)

llama-index-graph-stores-kuzu [0.4.0]#

  • 破坏性变更:更新关系表标签命名法,现有图需要重新创建 (#16886)

llama-index-llms-anthropic [0.4.0]#

  • 使用新的 anthropic token 计数 api (#16909)

llama-index-llms-bedrock-converse [0.3.8]#

  • 为 Bedrock Converse 添加推理配置文件支持并添加 Llama 3.1/3.2 (#16827)

llama-index-llms-nvidia [0.2.7]#

  • 跳过 nvdev llm 模型的模型验证 (#16882)

llama-index-llms-modelscope [0.3.0]#

  • 修复 modelscope 中 'pipeline' 在赋值前被引用 (#16864)

llama-index-llms-ollama [0.3.6]#

  • 修复忽略消息 additional kwargs 中的工具调用问题 (#16764)

llama-index-llms-siliconflow [0.1.0]#

  • 添加 siliconflow llm 类 (#16861)

llama-index-postprocessor-tei-rerank [0.2.1]#

  • 修复 TEI re-ranker 中的 top-n 参数问题 (#16884)

llama-index-readers-gitbook [0.2.0]#

  • 添加 gitbook reader (#16862)

llama-index-readers-google [0.4.3]#

  • 功能:为 google drive 添加相对文件路径 (#16907)

llama-index-readers-file [0.3.0]#

  • 提升版本并将 pypdf 依赖项更新到 5.1.0 (#16905)

llama-index-vector-stores-azureaisearch [0.2.9]#

  • 为 azure search 添加 UserAgent 头部 "llamaindex-python" (#16895)

llama-index-vector-stores-clickhouse [0.3.2]#

  • 修复 vector store 中的 clickhouse 初始化问题 (#16903)

[2024-11-05]#

llama-index-core [0.11.22]#

  • 恢复对上下文聊天引擎中提示模板的支持 (#16821)
  • 修复了生成的子问题的 JSON 格式问题 (双花括号) (#16820)
  • markdown 分割器改进元数据 (#16789)
  • 修复空索引 + 生成合成器问题 (#16785)

llama-index-embeddings-azure-inference [0.2.4]#

  • 支持 api_version 和 Azure AI 模型推理服务 (#16802)

llama-index-embeddings-gemini [0.2.2]#

  • 修复 await-async-embeddings 问题 (#16790)

llama-index-embeddings-siliconflow [0.1.0]#

  • 添加 siliconflow embedding 类 (#16753)

llama-index-indices-managed-vectara [0.2.4]#

  • 热修复:链查询配置 (#16818)

llama-index-llms-anthropic [0.3.9]#

  • 将 Anthropic Claude Haiku 3.5 添加到支持的 Claude 模型列表 (#16823)

llama-index-llms-azure-inference [0.2.4]#

  • 支持 api_version 和 Azure AI 模型推理服务 (#16802)

llama-index-llms-bedrock [0.2.6]#

  • 将 Anthropic Claude Haiku 3.5 添加到 bedrock 和 bedrock-converse 集成支持的 Claude 模型列表 (#16825)

llama-index-llms-bedrock-converse [0.3.7]#

  • 将 Anthropic Claude Haiku 3.5 添加到 bedrock 和 bedrock-converse 集成支持的 Claude 模型列表 (#16825)

llama-index-llms-dashscope [0.2.5]#

  • 对 LLMMetadata 信息更宽松的定义 (#16830)
  • 修复抽象方法签名错误 (#16809)

llama-index-llms-vllm [0.3.0]#

  • 为最新的 vllm 移除 beam search 参数 (#16817)

llama-index-postprocessor-colpali-rerank [0.1.0]#

  • 添加 ColPali 作为 reranker (#16829)

llama-index-postprocessor-siliconflow-rerank [0.1.0]#

  • 添加 siliconflow rerank 类 (#16737)

llama-index-readers-microsoft-onedrive [0.2.2]#

  • 修复:为 one drive reader 添加 required_exts (#16822)

llama-index-vector-stores-chroma [0.3.0]#

  • 支持最新 chroma 过滤语法中的破坏性变更 (#16806)

llama-index-vector-stores-pinecone [0.3.0]#

  • 支持稀疏嵌入模型,修复 serverless 的 pinecone 删除问题 (#16819)

[2024-10-31]#

llama-index-core [0.11.21]#

  • 修复了工作流 ctx.get() 默认值设置为 None 的问题 (#16756)
  • 修复 react agent 流式传输的各种问题 (#16755)
  • 为查询管道添加单元测试 (#16749)
  • 修复 _merge_ref_doc_kv_pairs 中 for 循环重复问题 (#16739)
  • 错误修复:创建索引时确定节点是否为 None (#16703)
  • 修复 LLMRerank default_parse_choice_select_answer_fn 解析问题 (#16736)
  • 修复工作流的返回类型检查问题 (#16724)
  • 修复一个详细输出问题并使 SQL 错误更具信息性 (#16686)

llama-index-embeddings-siliconflow [0.1.0]#

  • 添加 siliconflow embedding 类 (#16753)

llama-index-graph-stores-falkordb [0.2.4]#

  • 支持多图的 FalkorDB (#16482)

llama-index-llms-anthropic [0.3.8]#

  • 为 Vertex AI 添加额外的 claude 模型名称 (#16692)

llama-index-llms-bedrock-converse [0.3.6]#

  • 在 bedrock 中添加了 mistral large2 模型 ID (#16742)
  • 改进 Bedrock 工具调用 (#16723)
  • 将新的 sonnet3.5 添加到函数调用 bedrock converse 模型 (#16702)
  • 更新 bedrock 模型 (#16698)

llama-index-llms-bedrock [0.2.5]#

  • 在 bedrock 中添加了 mistral large2 模型 ID (#16742)
  • 将新的 sonnet3.5 添加到函数调用 bedrock converse 模型 (#16702)
  • 更新 bedrock 模型 (#16698)

llama-index-llms-cohere [0.3.2]#

  • 添加对 Cohere 新的 Aya-Expanse 模型的支持 (#16733)

llama-index-llms-dashscope [0.2.3]#

  • DashScope llm 支持异步 (#16711)

llama-index-llms-nvidia [0.3.4]#

  • 将 nvidia/llama-3.2-nv-embedqa-1b-v1 添加到支持的模型集合 (#16694)

llama-index-llms-pipeshift [0.1.0]#

  • Pipeshift LlamaIndex 集成 (#16610)

llama-index-memory-mem0 [0.1.0]#

  • 添加 Mem0 作为内存 (#16708)

llama-index-multi-modal-llms-anthropic [0.2.4]#

  • 修复 Anthropic 多模态依赖冲突,更新模型 (#16699)

llama-index-node-parser-docling [0.2.0]#

  • 功能:将 Docling reader & node parser 更新到 Docling v2 (#16677)

llama-index-postprocessor-nvidia-rerank [0.3.3]#

  • 将 nvidia/llama-3.2-nv-rerankqa-1b-v1 添加到支持的模型集合 (#16695)

llama-index-postprocessor-siliconflow-rerank [0.1.0]#

  • 添加 siliconflow rerank 类 (#16737)

llama-index-readers-docling [0.2.0]#

  • 功能:将 Docling reader & node parser 更新到 Docling v2 (#16677)

llama-index-readers-microsoft-onedrive [0.2.1]#

  • 功能:为 one drive 元数据添加权限 (#16646)

llama-index-storage-chat-store-azure [0.2.4]#

  • 为 Azure 存储组件添加托管身份认证支持 (#16710)
  • 在 azure chat store 中添加缺失的 awaits (#16645)

llama-index-storage-docstore-azure [0.2.1]#

  • 为 Azure 存储组件添加托管身份认证支持 (#16710)

llama-index-storage-index-store-azure [0.3.1]#

  • 为 Azure 存储组件添加托管身份认证支持 (#16710)

llama-index-storage-kvstore-azure [0.2.1]#

  • 为 Azure 存储组件添加托管身份认证支持 (#16710)

llama-index-tools-openai-image-generation [0.3.0]#

  • 使工具与选项更兼容,也为将来考虑 (#16676)

llama-index-tools-vectara-query [0.1.0]#

  • 添加 Vectara 查询工具 (#16722)

llama-index-vector-stores-azureaisearch [0.2.6]#

  • 允许在 Azure Vector Store 中定义可检索字段 (#16766)
  • 功能:为 azureai search 添加 get_nodes (#16761)
  • 在 AISearch 向量存储中添加了 get_nodes() 函数 (#16653)
  • 修复 AzureAISearchVectorStore 中按 ID 查询问题 (修复按 node_ids 删除节点问题) (#16769)

llama-index-vector-stores-hnswlib [0.2.0]#

  • 修复了持久化问题,重新排列并为 HnswlibVectorStore 的构造添加了新选项 (#16673)

llama-index-vector-stores-opensearch [0.4.1]#

  • 使用 os_async_client 初始化 OpensearchVectorClient (#16767)

llama-index-vector-stores-qdrant [0.3.3]#

  • 杂项:在 qdrant get_nodes 返回值中添加嵌入 (#16760)

llama-index-vector-stores-weaviate [1.1.3]#

  • 如果未提供节点 ID,则添加默认 ID (#16671)

[2024-10-24]#

llama-index-core [0.11.20]#

  • [实际没有任何内容!]

llama-index-embeddings-cohere [0.3.0]#

  • 添加对 Cohere 多模态嵌入的支持 (#16667)

llama-index-embeddings-litellm [0.2.2]#

  • 在 litellmembedding 中支持 timeout 参数 (#16532)

llama-index-graph-stores-neo4j [0.3.5]#

  • 使 neo4j schema 刷新可配置 (#16651)
  • 修复:在 neo4j 查询中接收来自 dbms 服务器的警告 (#16598)

llama-index-indices-managed-vectara [0.2.3]#

  • 为 vectara 添加 chain 后处理 (#16627)

llama-index-llms-anthropic [0.3.7]#

  • 更新 anthropic 模型名称 (#16643)

llama-index-llms-openai [0.2.16]#

  • 修复: 当 choice.delta 为 None 时跳过处理 (#16636)

llama-index-llms-reka [0.1.0]#

  • Reka llamaindex 集成 (llm 和 multi-modal-llm) (#15753)

llama-index-multi-modal-llms-reka [0.1.0]#

  • Reka llamaindex 集成 (llm 和 multi-modal-llm) (#15753)

llama-index-postprocessor-dashscope-rerank [0.2.1]#

  • 修复 BUG: 调用 DashScopeRerank 时 api_key 参数未设置 (#16665)

llama-index-readers-microsoft-sharepoint [0.3.4]#

  • 在 access token 过期的情况下为请求添加重试逻辑 (#16662)

llama-index-storage-docstore-mongodb [0.2.1]#

  • 修复 mongodb 文档存储缺失依赖错误 (#16654)

llama-index-storage-docstore-couchbase [0.1.0]#

  • 为 DocStore & IndexStore 添加 Couchbase 支持 (#16509)

llama-index-storage-kvstore-couchbase [0.1.0]#

  • 为 DocStore & IndexStore 添加 Couchbase 支持 (#16509)

llama-index-storage-index-store-couchbase [0.1.0]#

  • 为 IndexStore 添加 Couchbase 支持 (#16509)

llama-index-storage-kvstore-mongodb [0.2.1]#

  • 添加 mongodb 键值存储缺失依赖 (#16632)

llama-index-utils-workflow [0.2.2]#

  • 修复 HITL 的绘图 (#16624)

[2024-10-18]#

llama-index-core [0.11.19]#

  • 处理 asyncio futures 时正确抛出仪器化错误 (#16603)
  • 修复: 在 PGRetriever 中正确传递参数给 VectorStoreQuery (#16586)
  • 修复结构化预测类型提示 (#16585)
  • 添加 retry_on_exceptions_with_backoff 工具的异步版本 (#16374)
  • 改进 CONTRIBUTING.md 文档 (#16548)

llama-index-embeddings-gaudi [0.1.0]#

  • 在 llama-index-embeddings-gaudi 中添加与 Intel Gaudi 的嵌入集成 (#16521)

llama-index-embeddings-openvino [0.4.1]#

  • 通过 OpenVINO embedding 添加 OpenClip 支持 (#16554)

llama-index-graph-stores-neo4j [0.3.4]#

  • 修复: 移除 neo4j 查询中 dbms 服务器的警告 (#16598)

llama-index-llms-ibm [0.2.2]#

  • IBM watsonx.ai 聊天集成 + 函数调用支持 (#16589)

llama-index-llms-mistralai [0.2.7]#

  • 添加对 mistral 最新模型的支持 (#16571)

llama-index-llms-openai [0.2.15]#

  • 在 function_calling 方法中添加对微调模型的检查 (#16568)
  • 允许直接传入 openai 客户端 (#16560)

llama-index-llms-replicate [0.3.0]#

  • 使用 Replicate 流式 API (#16597)

llama-index-multi-modal-llms-openvino [0.1.0]#

  • 添加 OpenVINO 多模态支持 (#16567)

llama-index-multi-modal-llms-zhipuai [0.1.0]#

  • 添加 zhipuai 多模态 LLM 类 (#16551)

llama-index-readers-google [0.4.2]#

  • 使用 credential 文件中重定向 uri 的端口运行本地服务器 (GoogleDocsReader) (#16327)

llama-index-storage-chat-store-postgres [0.1.0]#

  • 功能: postgres 聊天存储集成 (#16557)

llama-index-storage-chat-store-upstash [0.1.2]#

  • 修复 upstash 聊天存储中的 pydantic 错误 (#16559)

llama-index-vector-stores-azurecosmosmongo [0.2.2]#

  • 为 Azure Cosmos DB Mongo 向量存储添加 DiskANN (#16581)

llama-index-vector-stores-hnswlib [0.1.0]#

  • Hnswlib 向量存储集成 (#16443)

llama-index-vector-stores-oceanbase [0.1.0]#

  • 添加 OceanBase 的向量存储集成 (#16550)

llama-index-vector-stores-qdrant [0.3.2]#

  • 在 Qdrant 向量数据库中添加文本字段的可选名称 (#16576)

[2024-10-14]#

llama-index-core [0.11.18]#

  • 在 PG Retrieval 中添加文本时处理空节点列表 (#16447)
  • 改进 text2sql 解析 (#16445)

llama-index-embeddings-litellm [0.2.2]#

  • 在 litellmembedding 中支持 timeout 参数 (#16532)

llama-index-embeddings-zhipuai [0.1.0]#

  • 添加 zhipuai embedding 类 (#16505)

llama-index-graph-stores-memgraph [0.1.0]#

  • 添加 Memgraph 图存储集成 (#16345)

llama-index-llms-anthropic [0.3.6]#

  • 添加 anthropic bedrock 支持 (#16478)

llama-index-llms-databricks [0.2.1]#

  • 修复 Databricks structured_predict (#16527)

llama-index-multi-modal-llms-anthropic [0.2.3]#

  • 在 AnthropicMultiModal 中传播 default_headers (#16496)

llama-index-readers-document360 [0.1.0]#

  • 添加 Document360Reader。由 PLACE 团队贡献 (#16305)

llama-index-readers-zyte-serp [0.1.0]#

  • 添加 Zyte serp 集成 (#16417)

llama-index-readers-upstage [0.2.1]#

  • 添加 UpstageDocumentParseReader (#16099)

llama-index-storage-chat-store-azure [0.2.2]#

  • 修复 azure 聊天存储中的异步方法 (#16531)

llama-index-tools-weather [0.1.0]#

  • 修复 format temp 函数 (#16487)

llama-index-vector-stores-elasticsearch [0.3.3]#

  • 在 Elasticsearch 集成中添加对自定义元数据关键词后缀的支持 (#16519)

llama-index-vector-stores-nile [0.1.0]#

  • 添加 Nile (multi-tenant postgres) 的向量存储集成 (#16437)

llama-index-vector-stores-opensearch [0.4.0]#

  • 使用高效的 kNN 过滤,修复输入值为字符串数组时的过滤问题 (#16393)

llama-index-vector-stores-oracledb [0.1.4]#

  • Oracle 向量存储集成的各种修复 (#16536)

llama-index-vector-stores-qdrant [0.3.1]#

  • 更新 Qdrant utils.py 中的模型名称拼写错误 (#16494)

llama-index-vector-stores-timescalevector [0.2.2]#

  • 修复 timescale 向量存储类 (#16539)

llama-index-vector-stores-weaviate [1.1.2]#

  • 修复 Weaviate 相似性得分问题 (#16489)

[2024-10-08]#

llama-index-core [0.11.17]#

  • 修复 ChatMessage 序列化问题 (使用 janky openai 类型) (#16410)

llama-index-embeddings-gemini [0.2.1]#

  • 修复 gemini embedding 异步方法 (#16369)

llama-index-llms-gaudi [0.1.0]#

  • 在 llama-index-llms-gaudi 中添加与 Intel Gaudi 的 LLM 集成 (#16308)

llama-index-llms-openai [0.2.12]#

  • 如果没有工具调用,则不包含 (#16408)

llama-index-multi-modal-llms-huggingface [0.1.1]#

  • LlamaMultiModal 类错误修复 (#16413)
  • MultiModal.HuggingFaceMultiModal: 修复错误和 README,添加 stream_complete (#16376)

llama-index-node-parser-docling [0.1.0]#

  • 功能: 添加 Docling 读取器和节点解析器 (#16406)

llama-index-readers-docling [0.1.0]#

  • 功能: 添加 Docling 读取器和节点解析器 (#16406)

llama-index-readers-zyte-serp [0.1.0]#

  • 添加 Zyte serp 集成 (#16417)

llama-index-vector-stores-azureaisearch [0.2.2]#

  • 修复(错误): 修复确保 metadata_mapping 值的错误 (#16431)

llama-index-vector-stores-objectbox [0.1.0]#

  • 添加 ObjectBox 向量存储集成 (#16314)

[2024-10-03]#

llama-index-core [0.11.16]#

  • 将非字典工具 JSON 函数参数视为空 (而不是意外抛出异常) (#16316)
  • 修复工作流的仪器化 (#16290)
  • (临时解决方案) 在工作流跟踪期间抑制 token 分离异常 (#16364)
  • 当节点没有内容时,抛出警告而不是错误 (#16354)
  • 修复 BasePGRetriever 中的拼写错误,导致未添加图形上下文 (#16357)

llama-index-embeddings-vertex-endpoint [0.1.0]#

  • 添加 vertex endpoint embedding (#16351)

llama-index-llms-fireworks [0.2.1]#

  • 在 FireworksAI 中添加对 Meta 3.2 模型的支持: 1b-instruct; 3b-instruct; 11b-vision; 90b-vision (#16349)

llama-index-multi-modal-llms-openai [0.2.1]#

  • 重构 OpenAI update_tool_calls (#16309)

llama-index-vector-stores-milvus [0.2.7]#

  • 添加对嵌套 MetadataFilters 和 FilterOperator.IS_EMPTY 的支持 (#16329)

[2024-10-02]#

llama-index-core [0.11.15]#

  • 为工作流上下文添加了 to_dict(), from_dict() 和序列化器 (#16250)
  • 使用 handler.cancel_run() 取消工作流执行的能力 (#16320)
  • (重大变更) 重构 WorkflowHandler.run_step(),以便用户手动触发事件来启动工作流的下一步骤 (#16277)

llama-index-embeddings-oracleai [0.1.0]#

  • Oraclevs 集成 (#16161)

llama-index-experimental [0.4.0]#

  • nudge-ft 包并添加扩展数据集的示例 (#16269)

llama-index-llms-anthropic [0.3.3]#

  • 为 Anthropic LLM 添加提示缓存支持 (#16270)

llama-index-llms-gemini [0.3.6]#

  • 在 Google Gemini LLMs 的原始数据中输出 token 用量 (#16313)

llama-index-llms-openai [0.2.10]#

  • 为 azure openai models 添加 4o mini (#16335)

llama-index-llms-vertex [0.3.7]#

  • 移除 Vertex AI 模型的 generation config 中的安全设置 (#16337)

llama-index-multi-modal-llms-huggingface [0.1.0]#

  • LlamaIndex Multi_Modal_Llms 集成: Huggingface (#16133)

llama-index-readers-minio [0.2.1]#

  • 移除额外的打印语句并替换创建临时文件的函数 (#16291)

llama-index-readers-oracleai [0.1.0]#

  • Oraclevs 集成 (#16161)

llama-index-readers-web [0.2.3]#

  • 添加 Zyte Web 读取器 (#16197)

llama-index-retrievers-bm25 [0.4.0]#

  • 升级 bm25s 最新版本的依赖 (#16339)
  • 更新 BM25 检索器以使用元数据 (#16267)

llama-index-storage-chat-store-redis [0.3.2]#

  • 修复 redis 聊天存储中异步客户端的检查 (#16321)

llama-index-storage-chat-store-upstash [0.1.0]#

  • Upstash Storage Chat Store 集成 (#16237)

llama-index-vector-stores-milvus [0.2.6]#

  • milvus: 总是设置 self._collection (#16306)
  • 修复带 index_config 的 milvus 集合创建 (#16165)

llama-index-vector-stores-oracledb [0.1.0]#

  • Oracledb 集成 (#16161)

llama-index-vector-stores-postgres [0.2.6]#

  • 在 Postgres 向量存储中支持 TEXT_MATCH FilterOperator (#16304)

[2024-09-26]#

llama-index-core [0.11.14]#

  • 增强 BaseIndex 中的 insert 方法以支持自定义转换 (#16206)
  • 确保 ChatMemoryBuffer 的聊天历史永远不会以 TOOL 消息开头 (#16214)
  • 安全提示辅助字符串格式化 (#16219)
  • [功能请求] 支持最大并发 workflow_instance.run() 执行 (#16215)
  • 工作流 + 人机协作专用支持 (#16220)

llama-index-graph-stores-neptune [0.2.2]#

  • 传入提供的客户端时修复 NoneType 对象错误 (#16174)

llama-index-llms-ollama [0.3.3]#

  • 修复 ollama 聊天缺失 keep_alive (#16182)

llama-index-llms-vertex [0.3.6]#

  • 修复 vertex 初始化函数 (#16216)

llama-index-multi-modal-llms-mistral [0.1.0]#

  • 添加对 Mistral Multi modal LLM 的支持 (#16191)

llama-index-readers-jira [0.3.0]#

  • 添加 Jira Reader 的分页支持 (#16226)

llama-index-vector-stores-azurecosmosmongo [0.2.1]#

  • Azure Cosmos DB 过滤向量搜索 (#16175)

llama-index-vector-stores-azurecosmosnosql [1.1.0]#

  • Azure Cosmos DB 过滤向量搜索 (#16175)

llama-index-vector-stores-deeplake [0.2.1]#

  • 添加缺失的 JWT 依赖项 (#16236)

[2024-09-24]#

llama-index-core [0.11.13]#

  • 为属性图检索添加字符串节点表示选项 (#16100)
  • 改进 markdown 元素节点解析器和结构化预测可靠性 (#16172)

llama-index-graph-stores-neptune [0.2.1]#

  • 修复 Neptune 添加额外标签的问题 (#16137)

llama-index-llms-vertext [0.3.5]#

  • 将 safety_settings 传递给 send_message 方法,修复设置未发送到 API 的问题 (#16153)

llama-index-readers-box [0.2.3]#

  • 升级 box sdk 到 >= 1.5.0 #16169

llama-index-storage-chat-store-dynamodb [0.2.0]#

  • dynamodb 的异步支持 (#16139)

llama-index-storage-chat-store-redis [0.3.1]#

  • redis 的异步支持 (#16139)

llama-index-vector-stores-astra-db [0.3.0]#

  • AstraDBVectorStore 依赖于 AstraPy 1.5 及以上版本 (#16164)

[2024-09-22]#

llama-index-core [0.11.12]#

  • 修正 llm 基类发出的 Pydantic 警告 (#16141)
  • 使用 JSON 全局安全格式化提示变量 (#15734)
  • 考虑提示辅助和响应合成器中的工具 (#16157)

llama-index-readers-google [0.4.1]#

  • 功能: 在 google drive reader 元数据中添加驱动器链接 (#16156)

llama-index-readers-microsoft-sharepoint [0.3.2]#

  • 为 SharePoint reader 添加 required_exts 选项 (#16152)

llama-index-vector-stores-milvus [0.2.4]#

  • 在 MilvusVectorStore 中支持用户定义的 schema (#16151)

[2024-09-20]#

llama-index-core [0.11.11]#

  • 在上下文聊天引擎中使用响应合成器 (#16017)
  • 异步聊天内存操作 (#16127)
  • Sql 查询添加 markdown 响应选项 (#16103)
  • 为 SimpleDirectoryReader 添加 Path 支持 (#16108)
  • 更新多模态的聊天消息类 (#15969)
  • 修复: handler.stream_events() 未生成 StopEvent (#16115)
  • 在 vector retriever 中传递 hybrid_top_k (#16105)

llama-index-embeddings-elasticsearch [0.2.1]#

  • 修复 elasticsearch embedding 异步函数 (#16083)

llama-index-embeddings-jinaai [0.3.1]#

  • 功能: 更新 JinaEmbedding 以支持 v3 版本 (#15971)

llama-index-experimental [0.3.3]#

  • 增强 Pandas Query Engine Output Processor (#16052)

llama-index-indices-managed-vertexai [0.1.1]#

  • 修复 VertexAIIndex 客户端中不正确的参数 (#16080)

llama-index-node-parser-topic [0.1.0]#

  • 基于 MedGraphRAG 论文添加 TopicNodeParser (#16131)

llama-index-multi-modal-llms-ollama [0.3.2]#

  • 为多模态 ollama 实现异步 (#16091)

llama-index-postprocessor-cohere-rerank [0.2.1]#

  • 功能: 在 rerank 中添加可配置的 base_url 字段 (#16050)

llama-index-readers-file [0.2.2]#

  • 修复缺失 bytesio 导入的错误 (#16096)

llama-index-readers-wordpress [0.2.2]#

  • Wordpress: 允许控制是否检索页面和/或文章 (#16128)
  • 修复问题 16071: wordpress 需要用户名、密码 (#16072)

llama-index-vector-stores-lancedb [0.2.1]#

  • 修复使用最新 lancedb 客户端的混合搜索 (#16057)

llama-index-vector-stores-mongodb [0.3.0]#

  • 修复 mongodb 混合搜索 top-k 规范 (#16105)

[2024-09-16]#

llama-index-core [0.11.10]#

  • 工作流的上下文/结果重构 (#16036)
  • 添加稀疏嵌入抽象 (#16018)
  • 修复 Pydantic 模型数字验证 (#16008)
  • 人机协作工作流示例 (#16011)

llama-index-callbacks-opik [0.1.0]#

  • opik 集成 (#16007)

llama-index-indices-managed-llama-cloud [0.3.1]#

  • 使用图像节点更新 llamacloud 索引 (#15996)

llama-index-indices-managed-vectara [0.2.2]#

  • 热修复: 修复引用文本 (#16015)

llama-index-llms-huggingface [0.3.4]#

  • 修复: HuggingFace LLM 在提供 tokenizer 参数时不必要的警告问题 (#16037)

llama-index-readers-dashvector [0.3.0]#

  • 修复: DashVector 新数据连接器适配 (#16028)

llama-index-readers-quip [0.1.0]#

  • 添加 quip 读取器 (#16000)

llama-index-sparse-embeddings-fastembed [0.1.0]#

  • 添加 fastembed 稀疏嵌入 (#16018)

llama-index-vector-stores-elasticsearch [0.2.1]#

  • 修复: 从 Elasticsearch KVStore 获取所有文档 (#16006)

llama-index-vector-stores-lancedb [0.2.3]#

  • 暂时限制 lancedb 版本 (#16045)

llama-index-vector-stores-postgres [0.2.5]#

  • 在 PGVectorStore 上实现 get_nodes() (#16026)

[2024-09-12]#

llama-index-core [0.11.9]#

  • 从 args 为 retriever query engine 添加 callback manager (#15990)
  • 不要将 system prompt 从 fn calling runner 传递给 fn calling worker (#15986)
  • 修复: 如果工具名称包含非英文字符,解析 react 输出时出错 (#15956)

llama-index-embeddings-alibabacloud-aisearch [0.1.0]#

  • 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)

llama-index-experimental [0.3.1]#

  • 添加 NUDGE 微调 (#15954)

llama-index-graph-stores-falkordb [0.2.2]#

  • 更新 falkordb 客户端 (#15940)

llama-index-llms-openai [0.2.5]#

  • 添加对 o1 openai 模型的支持 (#15979)
  • 强制 o1 的 temp 为 1.0 (#15983)

llama-index-node-parser-alibabacloud-aisearch [0.1.0]#

  • 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)

llama-index-postprocessor-alibabacloud-aisearch-rerank [0.1.0]#

  • 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)

llama-index-readers-alibabacloud-aisearch [0.1.0]#

  • 添加四个 alibabacloud-aisearch llama-index 集成: rerank, node_parser, readers, embeddings (#15934)

llama-index-vector-stores-opensearch [0.3.0]#

  • 在 OpenSearchVectorClient 中区分同步和异步调用 (#15945)

llama-index-vector-stores-postgres [0.2.4]#

  • 修复 PGVectorStore 中的属性错误 (#15961)
  • 添加对引擎参数的支持 (#15951)

llama-index-vector-stores-wordlift [0.4.5]#

  • 捕获 nest_asyncio 错误 (#15975)

[2024-09-09]#

llama-index-core [0.11.8]#

  • 功能: 为工作流步骤添加重试策略配置 (#15757)
  • 在 Langchain 格式转换中添加文档 ID (#15928)

llama-index-chat-store-dynamodb [0.1.0]#

  • 添加 DynamoDBChatStore (#15917)

llama-index-cli [0.3.1]#

  • 修复 RagCLI pydantic 错误 (#15931)

llama-index-llms-alibabacloud-aisearch [0.1.0]#

  • 添加 llama-index llms alibabacloud_aisearch 集成 (#15850)

llama-index-llms-mistralai [0.2.3]#

  • 使默认的 mistral 模型支持使用 large-latest 进行函数调用 (#15906)

llama-index-llms-vertex [0.3.4]#

  • 将 InternalServerError 添加到重试装饰器 (#15921)

llama-index-postprocessor-rankllm-rerank [0.3.0]#

  • 使用新的重排器更新 RankLLM (#15892)

llama-index-vector-stores-azurecosmosnosql [1.0.0]#

  • 添加 Azure Cosmos DB NoSql 的向量存储 (#14158)

llama-index-readers-microsoft-sharepoint [0.3.1]#

  • 修复 sharepoint reader 中的错误处理,修复下载文件错误 (#15868)

llama-index-vector-stores-wordlift [0.4.4]#

  • 为 WordLift Vector Store 添加 MetadataFilters 支持 (#15905)

llama-index-vector-stores-opensearch [0.2.2]#

  • 使用 knn_score 脚本支持 Opensearch Serverless 过滤查询 (#15899)

[2024-09-06]#

llama-index-core [0.11.7]#

  • 使 SentenceSplitter 的 secondary_chunking_regex 成为可选 (#15882)
  • 强制 openai 结构化输出 (#15706)
  • 修复断言错误,为流式 agent 添加类型忽略 (#15887)
  • 修复图片文档反序列化问题 (#15857)

llama-index-graph-stores-kuzu [0.3.2]#

  • KuzuPropertyGraphStore 的错误修复: 即使块缺失,也允许更新/插入关系 (#15889)

llama-index-llms-bedrock-converse [0.3.0]#

  • 从 Bedrock Converse 中移除未使用的 llama-index-llms-anthropic 依赖 (#15869)

llama-index-vector-stores-postgres [0.2.2]#

  • 修复使用最新 pydantic 的 PGVectorStore,更新 pydantic 导入 (#15886)

llama-index-vector-stores-tablestore [0.1.0]#

  • 添加 TablestoreVectorStore (#15657)

[2024-09-05]#

llama-index-core [0.11.6]#

  • 将 llama-deploy 文档添加到文档构建中 (#15794)
  • 添加 oreilly 课程指南 (#15845)

llama-index-readers-box [0.2.1]#

  • 各种错误修复 (#15836)

llama-index-readers-file [0.2.1]#

  • 更新 ImageReader 文件加载逻辑 (#15848)

llama-index-tools-box [0.2.1]#

  • 各种错误修复 (#15836)

llama-index-vector-stores-opensearch [0.2.1]#

  • 在删除操作后刷新 Opensearch 索引 (#15854)

[2024-09-04]#

llama-index-core [0.11.5]#

  • 移除属性图检索中不必要的断言 (#15832)
  • 使简单属性图再次可序列化 (#15833)
  • 修复核心组件的 fastapi 返回类型的 json schema (#15816)

llama-index-llms-nvidia [0.2.2]#

  • NVIDIA llm: 添加对 starcoder 模型的 Completion 支持 (#15802)

llama-index-llms-ollama [0.3.1]#

  • 添加 ollama 响应使用情况 (#15773)

llama-index-readers-dashscope [0.2.1]#

  • 修复 pydantic v2 验证错误 (#15800)

llama-index-readers-discord [0.2.1]#

  • 修复: 在 DiscordReader 中将 Document id 从 int 转换为 string (#15806)

llama-index-vector-stores-mariadb [0.1.0]#

  • 添加 MariaDB 向量存储集成包 (#15564)

[2024-09-02]#

llama-index-core [0.11.4]#

  • 为核心添加 mypy (#14883)
  • 修复不正确的仪器化字段/类型 (#15752)
  • FunctionCallingAgent sources 错误 + 创建 agent 的轻量级封装 (#15783)
  • 添加 text to sql 高级工作流 nb (#15775)
  • 修复: 流式工作流后移除上下文以再次启用流式 (#15776)
  • 修复聊天内存持久化和加载方法以使用正确的 JSON 格式 (#15545)
  • 修复 Pydantic V2 中 _example_type 类变量被读取为私有属性的问题 (#15758)

llama-index-embeddings-litellm [0.2.1]#

  • 为 LiteLLMEmbedding 添加 dimensions 参数,修复阻止从环境变量读取变量的错误 (#15770)

llama-index-embeddings-upstage [0.2.1]#

  • 错误修复 upstage embedding (初始化 UpstageEmbedding 类时) (#15767)

llama-index-embeddings-sagemaker-endpoint [0.2.2]#

  • 修复 Sagemaker Field required 问题 (#15778)

llama-index-graph-stores-falkordb [0.2.1]#

  • 修复带特殊字符的关系更新/插入 (#15769)

llama-index-graph-stores-neo4j [0.3.1]#

  • 为 neo4j lpg 添加原生向量索引支持并修复向量过滤器 (#15759)

llama-index-llms-azure-inference [0.2.2]#

  • 修复: GitHub Models 元数据检索 (#15747)

llama-index-llms-bedrock [0.2.1]#

  • 更新 base.py 修复 self 问题 (#15729)

llama-index-llms-ollama [0.3.1]#

  • 添加 ollama 响应使用情况 (#15773)

llama-index-llms-sagemaker-endpoint [0.2.2]#

  • 修复 Sagemaker Field required 问题 (#15778)

llama-index-multi-modal-llms-anthropic [0.2.1]#

  • 支持在不知道文件名的情况下检测图像类型 (#15763)

llama-index-vector-stores-milvus [0.2.2]#

  • 功能: 为 MilvusVectorStore 实现 get_nodes (#15696)

llama-index-vector-stores-tencentvectordb [0.2.1]#

  • 修复: tencentvectordb 属性名称不一致 (#15733)

[2024-08-29]#

llama-index-core [0.11.3]#

  • 重构: 合并 Context 和 Session 以简化工作流 api (#15709)
  • 杂项: 停止在工作流文档中使用已废弃的 ctx.data (#15716)
  • 修复: 当一个步骤抛出异常时停止流式工作流事件 (#15714)
  • 修复多模态 LLM 的 llm_chat_callback (#15700)
  • 杂项: 增加工作流包的单元测试覆盖率 (#15691)
  • 修复 SimpleVectorStore.from_persist_dir() 行为 (#15534)

llama-index-embeddings-azure-openai [0.2.5]#

  • 修复 azure 嵌入的 json 序列化问题 (#15724)

llama-index-graph-stores-kuzu [0.3.0]#

  • 添加 KuzuPropertyGraphStore (#15678)

llama-index-indices-managed-vectara [0.2.1]#

  • 添加了新的用户定义函数重排器 (#15546)

llama-index-llms-mistralai [0.2.2]#

  • 修复 mistral llm 中的 random_seed 类型 (#15701)

llama-index-llms-nvidia [0.2.1]#

  • 为 nvidia llm 添加函数/工具调用支持 (#15359)

llama-index-multi-modal-llms-ollama [0.3.0]#

  • 升级多模态 LLM 的 ollama 客户端依赖 (#15702)

llama-index-readers-web [0.2.1]#

  • 修复: Firecrawl 抓取 URL 响应 (#15720)

llama-index-selectors-notdiamond [0.1.0]#

  • 将 Not Diamond 添加到 llama_index (#15703)

llama-index-vector-stores-milvus [0.2.3]#

  • Milvus 向量存储中的 MMR (#15634)
  • 功能: 为 MilvusVectorStore 实现 get_nodes (#15696)

[2024-08-27]#

llama-index-core [0.11.2]#

  • 修复 pydantic v2 工具 schema 生成以处理嵌套模型 (#15679)
  • 功能: 支持嵌套工作流的默认值 (#15660)
  • 功能: 允许 FunctionTool 仅使用异步函数 (#15638)
  • 功能: 允许从步骤流式传输事件 (#15488)
  • 修复 auto-retriever pydantic 缩进错误 (#15648)
  • 使用工作流实现 Router Query Engine 示例 (#15635)
  • 使用工作流添加多步查询引擎示例 (#15438)
  • 开始跟踪 LLM 级别操作 (#15542)
  • 在 CodeSplitter 的 from_defaults 中将 callback_manager 传递给 init (#15585)

llama-index-embeddings-xinference [0.1.0]#

  • 添加 Xinference Embedding 类 (#15579)

llama-index-llms-ai21 [0.3.3]#

  • 集成: AI21 函数调用支持 (#15622)

llama-index-llms-anthropic [0.3.0]#

  • 添加了通过 GCP Vertex AI 对 anthropic 模型的支持 (#15661)

llama-index-llms-cerebras [0.1.0]#

  • 实现 Cerebras 集成 (#15665)

llama-index-postprocessor-nvidia-rerank [0.3.1]#

  • 修复下载的 nim 端点路径 (#15645)
  • 修复 llama-index-postprocessor-nvidia-rerank 测试 (#15643)

llama-index-postprocessor-xinference-rerank [0.1.0]#

  • 添加 xinference rerank 类 (#15639)

llama-index-vector-stores-alibabacloud-opensearch [0.2.1]#

  • 修复 AlibabaCloudOpenSearchConfig 中的输出字段设置 (#15562)

llama-index-vector-stores-azureaisearch [0.2.1]#

  • 将 azure-search-documents 升级到 2024-07-01 GA API 并在索引创建中添加对 Scalar 和 Binary Quantization 的支持 (#15650)

llama-index-vector-stores-neo4j [0.2.1]#

  • Neo4j Vector Store: 使嵌入维度检查成为可选 (#15628)

llama-inde-vector-stores-milvus [0.2.1]#

  • 更改 Milvus 的默认一致性级别 (#15577)

llama-index-vector-stores-elasticsearch [0.3.2]#

  • 修复 ElasticsearchStore key 错误 (#15631)

[2024-08-23]#

llama-index-core [0.11.1]#

  • 将客户端文档搜索替换为 algolia (#15574)
  • 添加扩展工作流的文档 (#15573)
  • 将嵌套工作流的方法重命名为 add_workflows (#15596)
  • 杂项: 修复核心代码库中的 @step 用法 (#15588)
  • 修改 ReflectionWorkflow 示例笔记本中的 validate 函数以使用 pydantic model_validate_json 方法 (#15567)
  • 功能: 允许同一工作流实例并发运行 (#15568)
  • 文档: 从文档和示例中移除冗余的 pass_context=True (#15571)

llama-index-embeddings-openai [0.2.3]#

  • 修复使用 pydantic v2 的 openai 嵌入 (#15576)

llama-index-embeddings-voyageai [0.2.1]#

  • 升级 voyage ai embedding 客户端依赖 (#15595)

llama-index-llms-vertex [0.3.3]#

  • Vertex LLM: 正确地将函数调用部分添加到提示中 (#15569)
  • Vertex LLM: 移除手动将消息内容设置为 Function Calling 的操作 (#15586)

[2024-08-22]#

llama-index-core [0.11.0]#

  • 移除已废弃的 ServiceContext -- 现在使用它将打印错误并提供迁移指南链接
  • 移除已废弃的 LLMPredictor -- 现在使用它将打印错误,任何现有的 LLM 都可以直接替换
  • pandas 设为可选依赖项

其他所有项#

  • 升级了每个包的次版本号,以配合新版本的 llama-index-core

[2024-08-21]#

llama-index-core [0.10.68]#

  • 移除基本元素节点解析器中的嵌套进度条 (#15550)
  • 添加详尽的工作流文档 (#15556)
  • 添加带反射的多策略工作流笔记本示例 (#15445)
  • 从核心移除 openai 依赖 (#15527)
  • 改进 token 计数器以处理更多响应类型 (#15501)
  • 功能: 允许在不带括号的情况下使用 step 装饰器 (#15540)
  • 功能: 工作流服务 (即嵌套工作流) (#15325)
  • 移除在 TextToCypher retriever 中使用 "cypher_validator" 时指定 "allowed_query_fields" 参数的要求 (#15506)

llama-index-embeddings-mistralai [0.1.6]#

  • 修复 mistral 嵌入使用问题 (#15508)

llama-index-embeddings-ollama [0.2.0]#

  • 使用 ollama 客户端进行嵌入 (#15478)

llama-index-embeddings-openvino [0.2.1]#

  • 支持 openvino embedding 和 reranker 的静态输入形状 (#15521)

llama-index-graph-stores-neptune [0.1.8]#

  • 添加代码以暴露 Neptune 的结构化 schema (#15507)

llama-index-llms-ai21 [0.3.2]#

  • 集成: AI21 工具支持 (#15518)

llama-index-llms-bedrock [0.1.13]#

  • 支持 bedrock 集成的 token 计数 (#15491)

llama-index-llms-cohere [0.2.2]#

  • 功能: 为 achat cohere 添加工具调用支持 (#15539)

llama-index-llms-gigachat [0.1.0]#

  • 添加 gigachat LLM 支持 (#15313)

llama-index-llms-openai [0.1.31]#

  • 修复 OpenAI token 使用报告中的不正确类型 (#15524)
  • 允许 openai 的流式 token 计数 (#15548)

llama-index-postprocessor-nvidia-rerank [0.2.1]#

  • 添加截断支持 (#15490)
  • 更新到 0.2.0,移除旧代码 (#15533)
  • 更新默认模型为 nvidia/nv-rerankqa-mistral-4b-v3 (#15543)

llama-index-readers-bitbucket [0.1.4]#

  • 修复从 bitbucket 加载文件路径的问题 (#15311)

llama-index-readers-google [0.3.1]#

  • 增强 google drive reader 以改进功能性和可用性 (#15512)

llama-index-readers-remote [0.1.6]#

  • 检查并净化远程读取器 URL (#15494)

llama-index-vector-stores-qdrant [0.2.17]#

  • 修复: 在 QdrantVectorStore 中为稀疏向量设置 IDF modifier (#15538)

[2024-08-18]#

llama-index-core [0.10.67]#

  • 避免使用 nltk 3.9,因为它已损坏 (#15473)
  • 文档: openllmetry 现在使用 instrumentation (#15443)
  • 修复 LangChainDeprecationWarning (#15397)
  • 为 Context 添加 get/set API 并使其协程安全 (#15152)
  • 文档: Cleanlab 指南 (#15352)
  • 在 vector stores 的 async_add() 中传递 kwargs (#15333)
  • 在结构化 LLM 中转义 json (#15404)
  • 文档: 添加使用工作流的 JSONAlyze Query Engine 指南 (#15408)

llama-index-embeddings-gigachat [0.1.0]#

  • 添加 GigaChat embedding (#15278)

llama-index-finetuning [0.1.12]#

  • 功能: 集成 Azure OpenAI 微调 (#15297)

llama-index-graph-stores-neptune [0.1.7]#

  • 暴露 NeptuneQueryException 并添加额外调试信息 (#15448)
  • 修复问题 #15414 并添加对 Neptune Analytics 进行部分匹配的能力 (#15415)
  • 使用反引号转义标签 (#15324)

llama-index-llms-cohere [0.2.1]#

  • 功能: 为 cohere 添加工具调用 (#15144)

llama-index-packs-corrective-rag [0.1.2]#

  • 将 LongRAGPack, Corrective RAG Pack 和 Self-Discover Pack 移植到工作流 (#15160)

llama-index-packs-longrag [0.1.1]#

  • 将 LongRAGPack, Corrective RAG Pack 和 Self-Discover Pack 移植到工作流 (#15160)

llama-index-packs-self-discover [0.1.2]#

  • 将 LongRAGPack, Corrective RAG Pack 和 Self-Discover Pack 移植到工作流 (#15160)

llama-index-readers-preprocess [0.1.4]#

  • 增强 PreprocessReader (#15302)

[2024-08-15]#

llama-index-core [0.10.66]#

  • 由于最新版本已从 pypi 中移除,暂时恢复 nltk 依赖项
  • 添加带工作流的引用查询引擎示例 (#15372)
  • 错误: Semantic double merging splitter 创建的块大于 chunk 大小 (#15188)
  • 功能: 使工作流中的 send_event() 分配目标步骤 (#15259)
  • 使所有工作流事件像映射一样可访问 (#15310)

llama-index-indices-managed-bge-m3 [0.1.0]#

  • 添加 BGEM3Index (#15197)

llama-index-llms-huggingface [0.2.7]#

  • 更新 HF 的 completion_to_prompt (#15354)

llama-index-llms-sambanova [0.1.0]#

  • SambaNova (Sambaverse and SambaStudio) 与 Llama-index 的封装 (#15220)

llama-index-packs-code-hierarchy [0.1.7]#

  • 更新 code_hierarchy.py 添加 php 支持 (#15145)

llama-index-postprocessor-dashscope-rerank [0.1.4]#

  • 调用 llama-index-postprocessor-dashscope-rerank 时修复错误 (#15358)

llama-index-readers-box [0.1.2]#

  • Box 重构: Box 文件到 Llama-Index 文档适配器 (#15314)

llama-index-readers-gcs [0.1.8]#

  • GCSReader: 实现 ResourcesReaderMixin 和 FileSystemReaderMixin (#15365)

llama-index-tools-box [0.1.1]#

  • Box 重构: Box 文件到 Llama-Index 文档适配器 (#15314)
  • 用于 AI Agent 的 Box 工具 (#15236)

llama-index-vector-stores-postgres [0.1.14]#

  • 检查 hnsw 索引是否存在 (#15287)

[2024-08-12]#

llama-index-core [0.10.65]#

  • 杂项: 升级 nltk 版本 (#15277)

llama-index-tools-box [0.1.0]#

  • 用于 AI Agent 的 Box 工具 (#15236)

llama-index-multi-modal-llms-gemini [0.1.8]#

  • 功能: 为 Gemini multi-model 添加 default_headers (#15296)

llama-index-vector-stores-clickhouse [0.2.0]#

  • 杂项: clickhouse 集成停止使用 ServiceContext (#15300)

llama-index-experimental [0.2.0]#

  • 杂项: experimental 包移除 ServiceContext 用法 (#15301)

llama-index-extractors-marvin [0.1.4]#

  • 修复: MarvinMetadataExtractor 功能并应用异步支持 (#15247)

llama-index-utils-workflow [0.1.1]#

  • 杂项: 升级 black 版本 (#15288)
  • 杂项: 升级 nltk 版本 (#15277)

llama-index-readers-microsoft-onedrive [0.1.9]#

  • 杂项: 升级 nltk 版本 (#15277)

llama-index-embeddings-upstage [0.1.3]#

  • 杂项: 升级 nltk 版本 (#15277)

llama-index-embeddings-nvidia [0.1.5]#

  • 杂项: 升级 nltk 版本 (#15277)

llama-index-embeddings-litellm [0.1.1]#

  • 杂项: 升级 nltk 版本 (#15277)

llama-index-legacy [0.9.48post1]#

  • 杂项: 升级 nltk 版本 (#15277)

llama-index-packs-streamlit-chatbot [0.1.5]#

  • 杂项: 升级 nltk 版本 (#15277)

llama-index-embeddings-huggingface [0.2.3]#

  • 功能: 为创建 hf embeddings 添加多进程支持 (#15260)

[2024-08-09]#

llama-index-core [0.10.64]#

  • 修复: 子节点未携带源节点的元数据 (#15254)
  • 工作流: 修复装饰器中的验证错误 (#15252)
  • 修复: 在 SQL Retriever 中剥离 '''sql (Markdown SQL 代码片段) (#15235)

llama-index-indices-managed-colbert [0.2.0]#

  • 移除 Colbert 集成中 ServiceContext 的使用 (#15249)

llama-index-vector-stores-milvus [0.1.23]#

  • 功能: 支持 Milvus 集合属性 (#15241)

llama-index-llms-cleanlab [0.1.2]#

  • 更新 Cleanlab TLM 支持的模型 (#15240)

llama-index-llms-huggingface [0.2.6]#

  • 为 HF 聊天模板添加生成提示 (#15239)

llama-index-llms-openvino [0.2.1]#

  • 为 HF 聊天模板添加生成提示 (#15239)

llama-index-graph-stores-neo4j [0.2.14]#

  • Neo4jPropertyGraphStore.get() 检查 id 属性 (#15228)

llama-index-readers-file [0.1.33]#

  • 修复 fs.open 路径类型 (#15226)

[2024-08-08]#

llama-index-core [0.10.63]#

  • 在工作流装饰器中添加 num_workers 解决步骤并发问题 (#15210)
  • Sub Question Query Engine 作为工作流笔记本示例 (#15209)
  • 为工作流笔记本添加 Llamatrace (#15186)
  • 在融合检索器中使用节点 hash 而非节点文本来匹配节点 (#15172)

llama-index-embeddings-mistralai [0.1.5]#

  • 处理 mistral v1.0 客户端 (#15229)

llama-index-extractors-relik [0.1.1]#

  • 修复 relik extractor 跳过错误 (#15225)

llama-index-finetuning [0.1.11]#

  • 处理 mistral v1.0 客户端 (#15229)

llama-index-graph-stores-neo4j [0.2.14]#

  • 添加 neo4j 通用节点标签 (#15191)

llama-index-llms-anthropic [0.1.17]#

  • 允许 Anthropic 消息中包含图像 (#15227)

llama-index-llms-mistralai [0.1.20]#

  • 处理 mistral v1.0 客户端 (#15229)

llama-index-packs-mixture-of-agents [0.1.2]#

  • 使用工作流更新 Mixture Of Agents llamapack (#15232)

llama-index-tools-slack [0.1.4]#

  • 修复 ToolSpec 中的 slack 客户端引用 (#15202)

[2024-08-06]#

llama-index-core [0.10.62]#

  • 功能: 允许使用 IS_EMPTY 操作符进行 None 元数据过滤 (#15167)
  • 修复: 在节点解析过程中尽可能使用父源节点到节点的关联 (#15182)
  • 在融合检索器中使用节点 hash 而非节点文本来匹配节点 (#15172)

llama-index-graph-stores-neo4j [0.2.13]#

  • Neo4j 属性图客户端批量处理 (#15179)

llama-index-graph-stores-neptune [0.1.4]#

  • 对 Amazon Neptune 的 PropertyGraphStore 支持 (#15126)

llama-index-llms-gemini [0.2.0]#

  • 功能: 为 Gemini 模型添加 default_headers (#15141)

llama-index-llms-openai [0.1.28]#

  • OpenAI: 支持工具参数中的新 strict 功能 (#15177)

llama-index-vector-stores-opensearch [0.1.14]#

  • 在 Opensearch 中添加对完整 MetadataFilters 的支持 (#15176)

llama-index-vector-stores-qdrant [0.2.15]#

  • 功能: 允许使用 IS_EMPTY 操作符进行 None 元数据过滤 (#15167)

llama-index-vector-stores-wordlift [0.3.0]#

  • 更新 WordLift Vector Store 以使用新的客户端包 (#15140)

[2024-08-05]#

llama-index-core [0.10.61]#

  • 工作流文档微调 (文档化 .send_event(), 扩展示例) (#15154)
  • 创建上下文管理器来仪器化事件和 span 标签 (#15116)
  • keyval 索引存储更新以接受自定义集合后缀 (#15134)
  • 使工作流上下文能够收集同一事件的多个实例 (#15153)
  • 修复 AsyncStreamingResponse 的 __str__ 方法 (#15131)

llama-index-callbacks-literalai [1.0.0]#

  • 功能(集成): 添加 Literal AI 的全局处理程序 (#15064)

llama-index-extractors-relik [0.1.0]#

  • 添加 relik kg 构造器 (#15123)

llama-index-graph-stores-neo4j [0.1.12]#

  • 查询时修复 neo4j 属性图关系属性 (#15068)

llama-index-llms-fireworks [0.1.9]#

  • 功能: 为 Fireworks llm 添加 default_headers (#15150)

llama-index-llms-gemini [0.1.12]#

  • 修复: Gemini 1.0 Pro Vision 已正式弃用,将默认模型切换到 gemini-1.5-flash (#15000)

llama-index-llms-paieas [0.1.0]#

  • 为 AlibabaCloud PaiEas 添加 LLM (#14983)

llama-index-llms-predibase [0.1.7]#

  • 修复 Predibase 集成对 HuggingFace 托管的微调适配器的支持 (#15130)

[2024-02-02]#

llama-index-core [0.10.60]#

  • 更新 StartEvent 用法以允许点表示法属性访问 (#15124)
  • 添加 GraphRAGV2 notebook (#15119)
  • 修复 DynamicLLMPathExtractor 中的 minor 错误以及默认输出解析器不工作的问题 (#15085)
  • 更新工作流超时的类型 (#15102)
  • 修复(sql_wrapper): 如果没有外键则不提及外键 (#14998)

llama-index-graph-stores-neo4j [0.2.11]#

  • 修复 neo4j 检索关系属性 (#15111) (#15108)

llama-index-llms-vllm [0.1.9]#

  • 更新 base.py 以使用 @atexit 进行清理 (#15047)

llama-index-vector-stores-pinecone [0.1.9]#

  • 升级 pinecone 客户端版本依赖 (#15121)

llama-index-vector-stores-redis [0.2.1]#

  • 处理 Redis 向量存储的嵌套 MetadataFilters (#15093)

llama-index-vector-stores-wordlift [0.2.0]#

  • 更新 WordLift Vector Store 以使用新的客户端包 (#15045)

[2024-07-31]#

llama-index-core [0.10.59]#

  • 引入 Workflow 用于事件驱动的编排 (#15067)
  • 为上下文聊天引擎添加功能,允许将先前的块插入到当前上下文窗口 (#14889)
  • MLflow 集成已添加到文档 (#14977)
  • 文档(literalai): 将 Literal AI 集成添加到文档中 (#15023)
  • 扩展查询管道的 span 覆盖范围 (#14997)
  • 使重新抛出错误在 asyncio_run() 期间跳过构造器 (#14970)

llama-index-embeddings-ollama [0.1.3]#

  • 添加适当的异步嵌入支持

llama-index-embeddings-textembed [0.0.1]#

  • 添加对 textembed embedding 的支持 (#14968)

llama-index-graph-stores-falkordb [0.1.5]#

  • FalkorDBPropertyGraphStore 的初始实现 (#14936)

llama-index-llms-azure-inference [0.1.1]#

  • 修复: Azure AI inference 集成对工具的支持 (#15044)

llama-index-llms-fireworks [0.1.7]#

  • 更新默认模型以支持函数调用 (#15046)

llama-index-llms-ollama [0.2.2]#

  • ollama 函数调用的开关 (#14972)
  • 为 Ollama 添加函数调用 (#14948)

llama-index-llms-openllm [0.2.0]#

  • 更新到 OpenLLM 0.6 (#14935)

llama-index-packs-longrag [0.1.0]#

  • 添加实现 LongRAG 的 LlamaPack (#14916)

llama-index-postprocessor-tei-rerank [0.1.0]#

  • 通过 Text Embedding Interface 支持 Re-Ranker (#15063)

llama-index-readers-confluence [0.1.7]#

  • confluence reader 按权限参数优先级排序 (#14905)

llama-index-readers-file [0.1.31]#

  • UnstructuredReader 使用文件名作为 ID (#14946)

llama-index-readers-gitlab [0.1.0]#

  • 添加 GitLab reader 集成 (#15030)

llama-index-readers-google [0.2.11]#

  • 修复平均评分是 float 而非 int 的问题 (#15070)

llama-index-retrievers-bm25 [0.2.2]#

  • 在 bm25 tokenize 中使用正确的词干提取器 (#14965)

llama-index-vector-stores-azureaisearch [0.1.13]#

  • 修复删除不存在索引的问题 (#14949)

llama-index-vector-stores-elasticsearch [0.2.5]#

  • 为稀疏策略禁用嵌入 (#15032)

llama-index-vector-stores-kdbai [0.2.0]#

  • 更新混合搜索的默认稀疏编码器 (#15019)

llama-index-vector-stores-milvus [0.1.22]#

  • 使用灵活的索引管理增强 MilvusVectorStore 以支持覆盖 (#15058)

llama-index-vector-stores-postgres [0.1.13]#

  • 添加选项以使用 HNSW 索引构造 PGVectorStore (#15024)

[2024-07-24]#

llama-index-core [0.10.58]#

  • 修复: Token 计数器期望 response.raw 为 dict,但得到 ChatCompletionChunk (#14937)
  • 返回每个 agent 步骤的正确工具输出,而不是全部 (#14885)
  • 修复异步结构化流式传输的 minor 错误 (#14925)

llama-index-llms-fireworks [0.1.6]#

  • fireworks ai llama3.1 支持 (#14914)

llama-index-multi-modal-llms-anthropic [0.1.6]#

  • 为多模态 LLM 添加 claude 3.5 sonnet (#14932)

llama-index-retrievers-bm25 [0.2.1]#

  • 🐞 修复(集成): BM25Retriever 持久化缺少参数 similarity_top_k (#14933)

llama-index-retrievers-vertexai-search [0.1.0]#

  • 用于 Vertex AI Search 的 Llamaindex 检索器 (#14913)

llama-index-vector-stores-deeplake [0.1.5]#

  • 改进 deeplake.get_nodes() 性能 (#14920)

llama-index-vector-stores-elasticsearch [0.2.3]#

  • 错误修复: 使用稀疏策略时不向 elasticsearch 存储传递空嵌入列表 (#14918)

llama-index-vector-stores-lindorm [0.1.0]#

  • 添加 lindorm 的向量存储集成 (#14623)

llama-index-vector-stores-qdrant [0.2.14]#

  • 功能: 允许限制检索的元素数量 (qdrant) (#14904)

[2024-07-22]#

llama-index-core [0.10.57]#

  • 为 VectorContextRetrieve 添加可选参数 similarity_score (#14831)
  • 添加属性提取 (使用属性名称和可选描述) 用于 KG (#14707)
  • 能够将输出类附加到 LLMs (#14747)
  • 添加工具调用/结构化提取的流式传输 (#14759)
  • 修复复制/pickling 时移除私有变量的问题 (#14860)
  • 修复提取管道中发送空数组到向量存储的问题 (#14859)
  • 优化提取管道去重 (#14858)
  • 为 VectorContextRetriever 添加可选参数 similarity_score (#14831)

llama-index-llms-azure-openai [0.1.10]#

  • 错误修复: AzureOpenAI 可能因自定义 azure_ad_token_provider 而失败 (#14869)

llama-index-llms-bedrock-converse [0.1.5]#

  • 功能: ✨ 在 BedrockConverse 中实现异步功能 (#14326)

llama-index-llms-langchain [0.3.0]#

  • 使某些依赖项成为可选
  • 在集成中升级 langchain 版本 (#14879)

llama-index-llms-ollama [0.1.6]#

  • 错误修复: ollama 流式响应 (#14830)

llama-index-multi-modal-llms-anthropic [0.1.5]#

  • 对齐依赖项 (#14850)

llama-index-readers-notion [0.1.10]#

  • 更新 notion reader 以处理重复页面,database+page id (#14861)

llama-index-vector-stores-milvus [0.1.21]#

  • 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)

llama-index-vector-stores-mongodb [0.1.8]#

  • MongoDB Atlas Vector Search: 增强元数据过滤 (#14856)

llama-index-vector-stores-opensearch [0.1.13]#

  • 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)

llama-index-vector-stores-pinecone [0.1.8]#

  • 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)

llama-index-vector-stores-postgres [0.1.12]#

  • 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)

llama-index-vector-stores-weaviate [1.0.2]#

  • 为 Weviate, Opensearch, Milvus, Postgres 和 Pinecone Vector Stores 实现 delete_nodes() 和 clear() (#14800)

[2024-07-19]#

llama-index-core [0.10.56]#

  • 修复 _apply_node_postprocessors 函数需要 QueryBundle 的问题 (#14839)
  • 添加仅上下文响应合成器 (#14439)
  • 修复 AgentRunner AgentRunStepStartEvent 分派 (#14828)
  • 改进 ReAct agent 中的输出格式系统提示 (#14814)
  • 从输出解析器工具集中移除双大括号替换 (#14735)
  • 更新 simple_summarize.py (#14714)

llama-index-tools-azure-code-interpreter [0.2.0]#

  • 杂项: 从环境变量读取 AZURE_POOL_MANAGEMENT_ENDPOINT (#14732)

llama-index-llms-azure-inference [0.1.0]#

  • Azure AI Inference 集成 (#14672)

llama-index-embeddings-azure-inference [0.1.0]#

  • Azure AI Inference 集成 (#14672)

llama-index-llms-bedrock-converse [0.1.5]#

  • 功能: ✨ 在 BedrockConverse 中实现异步功能 (#14326)

llama-index-embeddings-yandexgpt [0.1.5]#

  • 添加 YandexGPT Embedding Model 的新集成 (#14313)

llama-index-tools-google [0.1.6]#

  • 更新 gmailtoolspec 的 search_messages 工具的 docstring (#14840)

llama-index-postprocessor-nvidia-rerank [0.1.5]#

  • 添加对 nvidia/nv-rerankqa-mistral-4b-v3 的支持 (#14844)

llama-index-embeddings-openai [0.1.11]#

  • 修复 OpenAI Embedding 异步客户端错误 (#14835)

llama-index-embeddings-azure-openai [0.1.11]#

  • 修复 Azure OpenAI LLM 和 Embedding 异步客户端错误 (#14833)

llama-index-llms-azure-openai [0.1.9]#

  • 修复 Azure OpenAI LLM 和 Embedding 异步客户端错误 (#14833)

llama-index-multi-modal-llms-openai [0.1.8]#

  • 添加对 gpt-4o-mini 的支持 (#14820)

llama-index-llms-openai [0.1.26]#

  • 添加对 gpt-4o-mini 的支持 (#14820)

llama-index-llms-mistralai [0.1.18]#

  • 添加对 mistralai nemo 模型的支持 (#14819)

llama-index-graph-stores-neo4j [0.2.8]#

  • 修复在 neo4j 属性图中使用 sanitize 时的错误 (#14812)
  • 在 neo4j 的 get_triples 中添加过滤器 (#14811)

llama-index-vector-stores-azureaisearch [0.1.12]#

  • 功能: 为 azureaisearch 添加嵌套过滤器 (#14795)

llama-index-vector-stores-qdrant [0.2.13]#

  • 功能: 为 Qdrant 向量存储添加 NOT IN 过滤器 (#14791)

llama-index-vector-stores-azureaisearch [0.1.11]#

  • 功能: 添加 azureaisearch 支持的条件 (#14787)
  • 功能: azureaisearch 支持集合字符串 (#14712)

llama-index-tools-weather [0.1.4]#

  • 修复 OpenWeatherMapToolSpec.forecast_tommorrow_at_location (#14745)

llama-index-readers-microsoft-sharepoint [0.2.6]#

  • 跟随 odata.nextLink (#14708)

llama-index-vector-stores-qdrant [0.2.12]#

  • 为 QdrantVectorStore 添加 Quantization 选项 (#14740)

llama-index-vector-stores-azureaisearch [0.1.10]#

  • 功能: 改进 azureai search 删除功能 (#14693)

llama-index-agent-openai [0.2.9]#

  • 修复: openai api 中的附件需要工具 (#14609)

llama-index-readers-box [0.1.0]#

  • 新集成

llama-index-embeddings-fastembed [0.1.6]#

  • 修复 fastembed python 版本 (#14710)

[2024-07-11]#

llama-index-core [0.10.55]#

  • 各种文档更新

llama-index-llms-cleanlab [0.1.1]#

  • 为 Cleanlab LLM 集成添加用户配置 (#14676)

llama-index-readers-file [0.1.30]#

  • 并发 pptx 读取器在单个临时文件名上的竞争 (#14686)

llama-index-tools-exa [0.1.4]#

  • Exa search tool 入门和示例笔记本的更改 (#14690)

[2024-07-10]#

llama-index-core [0.10.54]#

  • 修复: 更新 simple vector store filter 的操作符逻辑 (#14674)
  • 添加 AgentOps 集成 (#13935)

llama-index-embeddings-fastembed [0.1.5]#

  • 杂项: 更新 Qdrant fastembed 包中所需的 python 版本 (#14677)

llama-index-embeddings-huggingface-optimum-intel [0.1.6]#

  • 升级 llama-index-embeddings-huggingface-optimum-intel 版本 (#14670)

llama-index-vector-stores-elasticsearch [0.2.2]#

  • 添加对自定义索引设置的支持 (#14655)

llama-index-callbacks-agentops [0.1.0]#

  • 初始发布

llama-index-indices-managed-vertexai [0.0.2]#

  • 修复 #14637 Llamaindex managed Vertex AI 索引需要更新 (#14641)

llama-index-readers-file [0.1.29]#

  • 修复 simple file reader 中非结构化导入问题 (#14642)

[2024-07-08]#

llama-index-core [0.10.53]#

  • 修复 llama-agents 中 llm.predict_and_call 处理 react 用法的问题 (#14556)
  • ReActAgent 调用 super().__init__ 时添加缺失的 verbose 参数 (#14565)
  • 修复使用 IngestionPipeline parallel 时 llama-index-core\llama_index\core\node_parser\text\utils.py 错误 (#14560)
  • 废弃 KnowledgeGraphIndex,调整文档 (#14575)
  • 修复 ChatSummaryMemoryBuffer 无法摘要包含工具调用的聊天记录问题 (#14563)
  • 添加 DynamicLLMPathExtractor 用于动态通过 LLM 推断 schema 的实体检测 (#14566)
  • 添加云文档转换器 (#14608)
  • 修复 KnowledgeGraphIndex 参数 'kg_triple_extract_template' 拼写错误 (#14619)
  • 修复:由于 unstructured 更改,更新 UnstructuredElementNodeParser (#14606)
  • 更新 ReAct Step 解决生成不完整问题 (#14587)

llama-index-callbacks-promptlayer [0.1.3]#

  • 请求成功时才记录日志到 promptlayer (#14632)

llama-index-embeddings-databricks [0.1.0]#

  • 添加 embeddings databricks 集成 (#14590)

llama-index-llms-ai21 [0.3.1]#

  • 修复 AI21 包中从错误包导入 MessageRole 问题 (#14596)

llama-index-llms-bedrock [0.1.12]#

  • 处理 Bedrock AnthropicProvider 中的空响应 (#14479)
  • 向 Bedrock InvokeAPI 添加 claude 3.5 sonnet 支持 (#14594)

llama-index-llms-bedrock-converse [0.1.4]#

  • 修复 Bedrock Converse 的工具使用块在有多个连续函数调用时的问题 (#14386)

llama-index-llms-optimum-intel [0.1.0]#

  • 向 llama-index-integration 添加 optimum intel 和 ipex backend (#14553)

llama-index-llms-qianfan [0.1.0]#

  • 添加 baidu-qianfan llm (#14414)

llama-index-llms-text-generation-inference [0.1.4]#

  • 修复:模型名称查找中 LLMMetadata 崩溃 (#14569)
  • 从 text-embeddings-inference 中移除 hf embeddings 依赖 (#14592)

llama-index-llms-yi [0.1.1]#

  • 更新 yi llm context_window (#14578)

llama-index-readers-file [0.1.28]#

  • 向 PandasExcelReader.load_data 添加 fs 参数 (#14554)
  • UnstructuredReader 增强功能 (#14390)

llama-index-readers-web [0.1.22]#

  • nit: firecrawl 修复创建文档问题 (#14579)

llama-index-retrievers-bm25 [0.2.0]#

  • 更新 BM25Retriever 以使用更新(和更快)的 bm25s 库 #(14581)

llama-index-vector-stores-qdrant [0.2.11]#

  • 重构:不要吞掉 Qdrant collection_exists 的异常 (#14564)
  • 添加对 qdrant bm42 的支持,设置稀疏 + 稠密配置 (#14577)

[2024-07-03]#

llama-index-core [0.10.52]#

  • 修复 windows 上文件读取器路径错误 (#14537)
  • 因父类更改,跟进 colbert index 中的 kwargs 传播 (#14522)
  • 废弃 query pipeline agent,转而使用 FnAgentWorker (#14525O)

llama-index-callbacks-arize-phoenix [0.1.6]#

  • 支持最新版本的 arize #14526

llama-index-embeddings-litellm [0.1.0]#

  • 添加对 LiteLLM Proxy Server 的支持,用于 embeddings (#14523)

llama-index-finetuning [0.1.10]#

  • 从 sentence_transformers 添加设备选择 (#14546)

llama-index-graph-stores-neo4 [0.2.7]#

  • 修复向量查询返回节点的顺序问题 (#14461)

llama-index-llms-bedrock [0.1.10]#

  • 处理 Bedrock AnthropicProvider 中的空响应 (#14479)

llama-index-llms-bedrock-converse [0.1.4]#

  • 修复 Bedrock Converse 的 join_two_dicts 函数在添加新字符串 kwarg 时的问题 (#14548)

llama-index-llms-upstage [0.1.4]#

  • 添加 upstage tokenizer 和 token 计数方法 (#14502)

llama-index-readers-azstorage-blob [0.1.7]#

  • 修复获取 blob 对象名称的 bug (#14547)

llama-index-readers-file [0.1.26]#

  • Pandas excel reader 加载数据修复以追加文档 (#14501)

llama-index-readers-iceberg [0.1.0]#

  • 向 LLamaIndex 添加 Iceberg Reader 集成 (#14477)

llama-index-readers-notion [0.1.8]#

  • 添加重试功能 (#14488)
  • 添加 list_databases 方法 (#14488)

llama-index-readers-slack [0.1.5]#

  • 增强 SlackReader 以从频道名称/模式获取频道 ID (#14429)

llama-index-readers-web [0.1.21]#

  • 向 firecrawl reader 添加 API url (#14452)

llama-index-retrievers-bm25 [0.1.5]#

  • 修复 BM25 retriever 返回节点中的分数问题 (#14495)

llama-index-vector-stores-azureaisearch [0.1.9]#

  • 向 azure ai search 添加 async 方法 (#14496)

llama-index-vector-stores-kdbai [0.1.8]#

  • Kdbai rest 兼容 (#14511)

llama-index-vector-stores-mongodb [0.1.6]#

  • 向 MongoDBAtlasVectorSearch 添加混合搜索和全文搜索 (#14490)

[2024-06-28]#

llama-index-core [0.10.51]#

  • 修复带有函数调用的 llm 和空工具调用问题 (#14453)
  • 修复 ChatMessage 在 query pipeline 中未被视为可字符串化的问题 (#14378)
  • 更新 schema llm path extractor 以接受有效的 triple 列表 (#14357)
  • build_index_from_nodes 时传递 kwargs (#14341)

llama-index-agent-dashscope [0.1.0]#

  • 添加阿里云 dashscope agent (#14318)

llama-index-graph-stores-neo4j [0.2.6]#

  • 向 neo4j_property_graph 添加 MetadataFilters (#14362)

llama-index-llms-nvidia [0.1.4]#

  • 添加已知托管模型的 context lengths (#14436)

llama-index-llms-perplexity [0.1.4]#

  • 更新可用模型 (#14409)

llama-index-llms-predibase [0.1.6]#

  • 改进无效 API token 的错误处理 (#14440)

llama-index-llms-yi [0.1.0]#

  • 集成 Yi 模型 (#14353)

llama-index-readers-google [0.2.9]#

  • 为 Google Chat 创建数据加载器 (#14397)

llama-index-readers-s3 [0.1.10]#

  • 在 S3Reader 中使 s3fs 缓存无效 (#14441)

llama-index-readers-structured-data [0.1.0]#

  • 为 StructuredDataReader 添加 xlsx, csv, json 和 jsonl 支持 (#14369)

llama-index-tools-jina [0.1.0]#

  • 集成名为 jina search 的新工具 (#14317)

llama-index-vector-stores-astradb [0.1.8]#

  • 更新 Astra DB vector store 以使用现代 astrapy 库 (#14407)

llama-index-vector-stores-chromadb [0.1.10]#

  • 修复 chroma get 中 ids 的索引访问问题 (#14434)

llama-index-vector-stores-deeplake [0.1.4]#

  • 在 deeplake vector store 中实现 delete_nodes() 和 clear() (#14457)
  • 在 deeplake vector store 中实现 get_nodes() (#14388)

llama-index-vector-stores-elasticsearch [0.2.1]#

  • 在 Elasticsearch 索引创建中添加对动态 metadata 字段的支持 (#14431)

llama-index-vector-stores-kdbai [0.1.7]#

  • Kdbai 版本兼容 (#14402)

[2024-06-24]#

llama-index-core [0.10.50]#

  • 为自定义 agent 添加了极其简单的 FnAgentWorker (#14329)
  • 在 build_index_from_nodes 时传递 kwargs (#14341)
  • 使 async utils 在嵌套 async 时更健壮 (#14356)

llama-index-llms-upstage [0.1.3]#

  • 每个 llm 都是一个聊天模型 (#14334)

llama-index-packs-rag-evaluator [0.1.5]#

  • 在 RAG 评估包中添加运行本地 embedding 模型的功能 (#14352)

[2024-06-23]#

llama-index-core [0.10.49]#

  • 改进 llama-cloud 和客户端依赖项 (#14254)

llama-index-indices-managed-llama-cloud [0.2.1]#

  • 改进 LlamaCloudIndex 中的接口和客户端交互 (#14254)

llama-index-llms-bedrock-converse [0.1.3]#

  • 将 claude sonnet 3.5 添加到 bedrock converse (#14306)

llama-index-llms-upstage [0.1.2]#

  • 设置默认上下文大小 (#14293)
  • 在 upstage llm 和 embeddings 上添加 api_key 别名 (#14233)

llama-index-storage-kvstore-azure [0.1.2]#

  • 优化插入操作 (#14321)

llama-index-utils-azure [0.1.1]#

  • azure_table_storage 参数 bug (#14182)

llama-index-vector-stores-neo4jvector [0.1.6]#

  • 添加 neo4j 客户端方法 (#14314)

[2024-06-21]#

llama-index-core [0.10.48]#

  • 提高平均精度效率 (#14260)
  • 添加 crewai + llamaindex cookbook (#14266)
  • 向 TextNode 添加 mimetype 字段 (#14279)
  • 改进 IBM watsonx.ai 文档 (#14271)
  • 更新文档首页,添加 agents 指南等 (#14089)

llama-index-llms-anthropic [0.1.14]#

  • 添加对 claude 3.5 的支持 (#14277)

llama-index-llms-bedrock-converse [0.1.4]#

  • 实现用于函数调用的 Bedrock Converse API (#14055)

[2024-06-19]#

llama-index-core [0.10.47]#

  • 添加平均精度作为检索指标 (#14189)
  • 添加 .show_jupyter_graph() 方法在 jupyter notebook 中可视化默认简单 graph_store (#14104)
  • 更正 nltk 文件查找行为 (#14040)
  • 向 generate_qa_pairs 添加 helper 参数 (#14054)
  • 添加新的分块语义分块方法:双通道合并 (#13629)
  • 启用查询管道的分步执行 (#14117)
  • 通过仅拒绝 8.4.0 来替换 tenacity 上限 (#14218)
  • llm.predict_and_call() 中传播 error_on_no_tool_call kwarg (#14253)
  • 在 query pipeline 中,避免将节点转换为字符串,而是使用 get_content() (#14242)
  • 修复 NLSQLTableQueryEngine 响应 metadata (#14169)
  • 不要覆盖默认简单属性图中的关系 (#14244)

llama-index-embeddings-ipex-llm [0.1.5]#

  • 启用为 ipex embedding 集成选择 Intel GPU (#14214)

llama-index-embeddings-mixedbreadai [0.1.0]#

  • 添加 mixedbread ai 集成 (#14161)

llama-index-graph-stores-neo4j [0.2.5]#

  • 向 neo4j upsert relations 添加默认节点属性 (#14095)

llama-index-indices-managed-postgresml [0.3.0]#

  • 向 PostgresML Managed Index 添加重新排序 (#14134)

llama-index-llms-ai21 [0.3.0]#

  • 为 async 方法使用 async AI21 client (#14193)

llama-index-llms-bedrock-converse [0.1.2]#

  • 添加了(假的)async 调用以避免错误 (#14241)

llama-index-llms-deepinfra [0.1.3]#

  • 向 deep infra llm 添加函数调用 (#14127)

llama-index-llms-ipex-llm [0.1.8]#

  • 启用为 ipex embedding 集成选择 Intel GPU (#14214)

llama-index-llms-oci-genai [0.1.1]#

  • 添加 oci genai 的 command r 支持 (#14080)

llama-index-llms-premai [0.1.7]#

  • Prem AI Templates Llama Index 支持 (#14105)

llama-index-llms-you [0.1.0]#

  • 集成 You.com 对话式 API (#14207)

llama-index-readers-mongodb [0.1.8]#

  • 向 SimpleMongoReader 添加 metadata 字段 "collection_name" (#14245)

llama-index-readers-pdf-marker [0.1.0]#

  • 添加 marker-pdf reader (#14099)

llama-index-readers-upstage [0.1.0]#

  • 添加 upstage 作为 reader (#13415)

llama-index-postprocessor-mixedbreadai-rerank [0.1.0]#

  • 添加 mixedbread ai 集成 (#14161)

llama-index-vector-stores-lancedb [0.1.6]#

  • LanceDB:代码清理,小更新 (#14077)

llama-index-vector-stores-opensearch [0.1.12]#

  • 添加自定义默认 OpenSearch Client 和 Engine 的选项 (#14249)

[2024-06-17]#

llama-index-core[0.10.46]#

  • 修复核心模块中的 Pin tenacity 和 numpy 问题 (#14203)
  • 添加精度和召回指标 (#14170)
  • 为 Vertex AI 启用函数调用和 agent runner (#14088)
  • 修复 batch_gather 问题 (#14162)

llama-index-utils-huggingface [0.1.1]#

  • 从 HuggingFace utils 包中移除 sentence-transformers 依赖项 (#14204)

llama-index-finetuning [0.1.8]#

  • 添加 MistralAI Finetuning API 支持 (#14101)

llama-index-llms-mistralai [0.1.16]#

  • 更新 MistralAI (#14199)

llama-index-llms-bedrock-converse [0.1.0]#

  • 修复:🐛 修复 Bedrock Converse 的 pyproject.toml 以用于 PyPI 发布 (#14197)

llama-index-utils-azure [0.1.1]#

  • 使用典型的包含 llama_index/ (#14196)
  • Feature/azure_table_storage (#14182)

llama-index-embeddings-nvidia [0.1.4]#

  • 添加对 nvidia/nv-embed-v1 的支持 (https://hugging-face.cn/nvidia/NV-Embed-v1) (#14194)

llama-index-retrievers-you [0.1.3]#

  • 添加新闻 retriever (#13934)

llama-index-storage-kvstore-azure [0.1.1]#

  • 修复了缺少 await 的 bug (#14177)

llama-index-embeddings-nomic [0.4.0post1]#

  • 恢复 Nomic Embed einops 依赖项 (#14176)

llama-index-retrievers-bm25 [0.1.4]#

  • 更改 BM25Retriever _retrieve 以使用 numpy 方法 (#14015)

llama-index-llms-gemini [0.1.11]#

  • 向 Gemini.stream_chat 添加缺失的 @llm_chat_callback() (#14166)

llama-index-llms-vertex [0.2.0]#

  • 为 Vertex AI 启用函数调用和 agent runner (#14088)

llama-index-vector-stores-opensearch [0.1.11]#

  • feat: 在 OpenSearch VectorStore 上支持 VectorStoreQueryMode.TEXT_SEARCH (#14153)

[2024-06-14]#

llama-index-core [0.10.45]#

  • 修复解析 sql query.py 问题 (#14109)
  • 实现 NDCG 指标 (#14100)
  • 修复 Structured Generation 的系统提示词 (#14026)
  • 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)
  • 添加 PandasExcelReader 类用于解析 excel 文件 (#13991)
  • feat: 向 ingestion pipeline 添加 spans (#14062)

llama-index-vector-stores-qdrant [0.2.10]#

  • 修复 Qdrant 节点问题 (#14149)

llama-index-readers-mongodb [0.1.7]#

  • 修复 TypeError: sequence item : expected str instance, int found

llama-index-indices-managed-vertexai [0.0.1]#

  • feat: 为 Vertex AI 上的 LlamaIndex RAG 添加 Managed Index (#13626)

llama-index-llms-oci-genai [0.1.1]#

  • Feature/add command r support oci genai (#14080)

llama-index-vector-stores-milvus [0.1.20]#

  • MilvusVectorStore:始终将 text_key 包含在 output_fields 中 (#14076)

llama-index-packs-mixture-of-agents [0.1.0]#

  • 添加 Mixture Of Agents 论文实现 (#14112)

llama-index-llms-text-generation-inference [0.1.0]#

  • 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)

llama-index-llms-huggingface-api [0.1.0]#

  • 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)

llama-index-embeddings-huggingface-api [0.1.0]#

  • 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)

llama-index-utils-huggingface [0.1.0]#

  • 将 HuggingFace embeddings 拆分为 HuggingFace API 和 TextGenerationInference 包 (#14013)

llama-index-llms-watsonx [0.1.8]#

  • Feat: IBM watsonx.ai llm 和 embeddings 集成 (#13600)

llama-index-llms-ibm [0.1.0]#

  • Feat: IBM watsonx.ai llm 和 embeddings 集成 (#13600)

llama-index-embeddings-ibm [0.1.0]#

  • Feat: IBM watsonx.ai llm 和 embeddings 集成 (#13600)

llama-index-vector-stores-milvus [0.1.19]#

  • 修复 milvus filter enum 解析问题 (#14111)

llama-index-llms-anthropic [0.1.13]#

  • 修复 anthropic llm 调用问题 (#14108)

llama-index-storage-index-store-postgres [0.1.4]#

  • 使用了错误的 mongo 名称而不是 Postgres (#14107)

llama-index-embeddings-bedrock [0.2.1]#

  • 移除 Bedrock embedding 中不必要的 excluded from fields (#14085)

llama-index-finetuning [0.1.7]#

  • Feature/added trust remote code (#14102)

llama-index-readers-file [0.1.25]#

  • nit: pandas excel reader 修复 (#14086)

llama-index-llms-anthropic [0.1.12]#

  • 更新 anthropic 依赖项至最低版本 0.26.2 (#14091)

llama-index-llms-llama-cpp [0.1.4]#

  • 添加对 Llama 3 Instruct prompt 格式的支持 (#14072)

llama-index-llms-bedrock-converse [0.1.8]#

  • 实现用于函数调用的 Bedrock Converse API (#14055)

llama-index-vector-stores-postgres [0.1.11]#

  • fix/postgres-metadata-in-filter-single-elem (#14035)

llama-index-readers-file [0.1.24]#

  • 添加 PandasExcelReader 类用于解析 excel 文件 (#13991)

llama-index-embeddings-ipex-llm [0.1.4]#

  • 更新 llama-index-embeddings-ipex-llm 依赖项

llama-index-embeddings-gemini [0.1.8]#

  • 在 Gemini Embedding 中添加 api key 作为字段 (#14061)

llama-index-vector-stores-milvus [0.1.18]#

  • 扩展 milvus vector store filter 选项 (#13961)

[2024-06-10]#

llama-index-core [0.10.44]#

  • 向 SimpleDirectoryReader 支持的图像类型添加 WEBP 和 GIF (#14038)
  • 重构:通过 mixin 向 abstractmethods 添加 spans (#14003)
  • 为 SQLAutoVectorQueryEngine 添加流式处理支持 (#13947)
  • 添加选项指定 embed_model 到 NLSQLTableQueryEngine (#14006)
  • 为 multimodal LLMs 添加 spans (#13966)
  • 在 auto prev next 中更改为 compact (#13940)
  • feat: 为流式传输错误添加异常事件 (#13917)
  • feat: 为工具添加 spans (#13916)

llama-index-embeddings-azure-openai [0.1.10]#

  • 修复未使用 API key 时使用 azure_ad 导致的错误 (#13970)

llama-index-embeddings-jinaai [0.2.0]#

  • 添加 Jina Embeddings MultiModal (#13861)

llama-index-embeddings-nomic [0.3.0]#

  • 添加 Nomic multi modal embeddings (#13920)

llama-index-graph-stores-neo4j [0.2.3]#

  • 确保 cypher 在迭代前返回列表 (#13938)

llama-index-llms-ai21 [0.2.0]#

  • 添加 AI21 Labs Jamba-Instruct 支持 (#14030)

llama-index-llms-deepinfra [0.1.2]#

  • fix(deepinfrallm): default max_tokens (#13998)

llama-index-llms-vllm [0.1.8]#

  • 更正 __del__() Vllm (#14053)

llama-index-packs-zenguard [0.1.0]#

  • 添加 ZenGuard llamapack (#13959)

llama-index-readers-google [0.2.7]#

  • 修复 google drive reader 中类属性设置方式 (#14022)
  • 添加 Google Maps Text Search Reader (#13884)

llama-index-readers-jira [0.1.4]#

  • Jira 个人访问令牌支持托管实例 (#13890)

llama-index-readers-mongodb [0.1.6]#

  • 加载时设置文档 ids (#14000)

llama-index-retrievers-duckdb-retriever [0.1.0]#

  • 添加 DuckDBRetriever (#13929)

llama-index-vector-stores-chroma [0.1.9]#

  • 向 chromadb 添加 inclusion filter (#14010)

llama-index-vector-stores-lancedb [0.1.5]#

  • 修复 LanceDBVectorStore add() 逻辑 (#13993)

llama-index-vector-stores-milvus [0.1.17]#

  • 支持 Milvus vector store 的所有 filter 运算符 (#13745)

llama-index-vector-stores-postgres [0.1.10]#

  • 扩大 llama-index-vector-stores-postgres 中对 SQLAlchemy 的支持到 1.4+ (#13936)

llama-index-vector-stores-qdrant [0.2.9]#

  • Qdrant:为 doc_id 创建 payload 索引 (#14001)

[2024-06-02]#

llama-index-core [0.10.43]#

  • 在 property graph index vector stores 中尽可能使用默认 UUIDs (#13886)
  • 避免 property graph index 中插入空或重复内容 (#13891)
  • 修复 simple property graph store 中 get_rel_map 的 cur depth 问题 (#13888)
  • (临时补丁) 禁用日志生成器的 instrumentation (#13901)
  • 向 Dispatcher.get_dispatch_event() 方法添加向后兼容性 (#13895)
  • 修复:StructuredPlannerAgent 中 acreate_plan 的名称不正确 (#13879)

llama-index-graph-stores-neo4j [0.2.2]#

  • 处理 type 缺失的情况 (neo4j property graph) (#13875)
  • Neo4jPGStore 重命名为 Neo4jPropertyGraphStore (兼容旧版本) (#13891)

llama-index-llms-openai [0.1.22]#

  • 改进 OpenAI 的重试机制 (#13878)

llama-index-readers-web [0.1.18]#

  • AsyncWebPageReader:使其真正异步;之前表现出阻塞行为 (#13897)

llama-index-vector-stores-opensearch [0.1.10]#

  • Fix/OpenSearch filter logic (#13804)

[2024-05-31]#

llama-index-core [0.10.42]#

  • 允许在 property graph index 中正确设置 vector store (#13816)
  • 修复 langchain bridge 中的导入问题 (#13871)

llama-index-graph-stores-nebula [0.2.0]#

  • NebulaGraph 支持 PropertyGraphStore (#13816)

llama-index-llms-langchain [0.1.5]#

  • 修复 langchain llm 中的 fireworks 导入问题 (#13871)

llama-index-llms-openllm [0.1.5]#

  • feat(openllm): 0.5 sdk 集成更新 (#13848)

llama-index-llms-premai [0.1.5]#

  • 更新 SDK 兼容性 (#13836)

llama-index-readers-google [0.2.6]#

  • 修复 GoogleDriveReader 中 token 导致无限循环的 bug (#13863)

[2024-05-30]#

llama-index-core [0.10.41]#

  • 从 index 传递 embeddings 到 property graph retriever (#13843)
  • 保护 instrumentation event/span handler 之间不受影响 (#13823)
  • 为 completion streaming 添加缺失的事件 (#13824)
  • 发生异常时缺失 callback_manager.on_event_end (#13825)

llama-index-llms-gemini [0.1.10]#

  • 为 gemini 使用 model kwarg 指定模型名称 (#13791)

llama-index-llms-mistralai [0.1.15]#

  • 添加 mistral code model (#13807)
  • 更新 mistral codestral 支持 fill in middle endpoint (#13810)

llama-index-llms-openllm [0.1.5]#

  • 0.5 集成更新 (#13848)

llama-index-llms-vertex [0.1.8]#

  • Vertex Integration 的 Pydantic Error 安全设置 (#13817)

llama-index-readers-smart-pdf-loader [0.1.5]#

  • 处理 smart pdf reader 中的 path objects (#13847)

[2024-05-28]#

llama-index-core [0.10.40]#

  • 添加了 PropertyGraphIndex 和其他支持的抽象。详情请参见完整指南 (#13747)
  • 更新了 AutoPrevNextNodePostprocessor 以允许传入响应模式和 LLM (#13771)
  • 修复 return direct 的类型处理问题 (#13776)
  • 更正 retrieval evaluator 中方法名称为 _aget_retrieved_ids_and_texts (#13765)
  • 修复:QueryTransformComponent 错误调用 self._query_transform (#13756)
  • SimpleVectorStoreIndex 实现更多 filters (#13365)

llama-index-embeddings-bedrock [0.2.0]#

  • 添加对 Bedrock Titan Embeddings v2 的支持 (#13580)

llama-index-embeddings-oci-genai [0.1.0]#

  • 添加 Oracle Cloud Infrastructure (OCI) Generative AI (#13631)

llama-index-embeddings-huggingface [0.2.1]#

  • 从 AutoModel 暴露 "safe_serialization" 参数 (#11939)

llama-index-graph-stores-neo4j [0.2.0]#

  • 添加了用于 property graph 支持的 Neo4jPGStore (#13747)

llama-index-indices-managed-dashscope [0.1.1]#

  • 添加了 dashscope managed index (#13378)

llama-index-llms-oci-genai [0.1.0]#

  • 添加 Oracle Cloud Infrastructure (OCI) Generative AI (#13631)

llama-index-readers-feishu-wiki [0.1.1]#

  • 修复未定义变量问题 (#13768)

llama-index-packs-secgpt [0.1.0]#

  • SecGPT - LlamaIndex 集成 #13127

llama-index-vector-stores-hologres [0.1.0]#

  • 添加 Hologres vector db (#13619)

llama-index-vector-stores-milvus [0.1.16]#

  • 移除 Milvus 对 FlagEmbedding 的依赖 (#13767) 统一 collection 构造,无论 enable_sparse 值如何 (#13773)

llama-index-vector-stores-opensearch [0.1.9]#

  • 重构:将 helper 方法放入类定义内 (#13749)

[2024-05-24]#

llama-index-core [0.10.39]#

  • 添加 VectorMemory 和 SimpleComposableMemory (#13352)
  • 改进 MarkdownReader 以忽略代码块中的 headers (#13694)
  • 适当的 async element node parsers (#13698)
  • 在 function calling worker 中仅返回消息内容 (#13677)
  • nit: 修复 multimodal query engine 使用 metadata 的问题 (#13712)
  • 添加 notebook 解决工具描述过长和 QueryPlanTool 问题 (#13701)

llama-index-embeddings-ipex-llm [0.1.2]#

  • 改进设备选择 (#13644)

llama-index-indices-managed-postgresml [0.1.3]#

  • 添加 PostgresML Managed Index (#13623)

llama-index-indices-managed-vectara [0.1.4]#

  • 添加了聊天引擎、流式传输、事实一致性分数等 (#13639)

llama-index-llms-deepinfra [0.0.1]#

  • 添加 DeepInfra LLM Models 集成 (#13652)

llama-index-llm-ipex-llm [0.1.3]#

  • 为 llama-index-llm-ipex-llm 添加 GPU 支持 (#13691)

llama-index-llms-lmstudio [0.1.0]#

  • lmstudio 集成 (#13557)

llama-index-llms-ollama [0.1.5]#

  • 在 ollama 集成中使用 aiter_lines 函数迭代行 (#13699)

llama-index-llms-vertex [0.1.6]#

  • 为 gemini 添加 safety_settings 参数 (#13568)

llama-index-postprocessor-voyageai-rerank [0.1.3]#

  • VoyageAI 重新排序 bug 修复 (#13622)

llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.4]#

  • 添加缺失的 return (#13720)

llama-index-readers-web [0.1.17]#

  • 添加 Scrapfly Web Loader (#13654)

llama-index-vector-stores-postgres [0.1.9]#

  • 修复 delete 和特殊字符的 bug (#13651)

llama-index-vector-stores-supabase [0.1.5]#

  • 在 ._client 属性不存在时尝试捕获 (#13681)

[2024-05-21]#

llama-index-core [0.10.38]#

  • 在 BaseSQLTableQueryEngine 中启用流式处理 (#13599)
  • 修复 relational node parsers 中的 nonetype 错误 (#13615)
  • feat(instrumentation): 为所有 llms 添加新的 spans (#13565)
  • 正确限制生成的问题数量 (#13596)
  • 在 element Node Parsers 中传递 'exclude_llm_metadata_keys' 和 'exclude_embed_metadata_keys' (#13567)
  • 向 QueryPipeline 添加批处理模式 (#13203)
  • 改进 SentenceEmbeddingOptimizer 以遵守 Settings.embed_model (#13514)
  • ReAct output parser 健壮性更改 (#13459)
  • 修复带有单个参数的 pydantic 工具调用问题 (#13522)
  • 避免 stream chat 未 yield 时的意外错误 (#13422)

llama-index-embeddings-nomic [0.2.0]#

  • 实现带有 inference_mode 参数的本地 Nomic Embed (#13607)

llama-index-embeddings-nvidia [0.1.3]#

  • 废弃 mode(),转而使用 __init__(base_url=...) (#13572)
  • 添加 snowflake/arctic-embed-l 支持 (#13555)

llama-index-embeddings-openai [0.1.10]#

  • 更新 openai 的重试触发方式 (#13608)

llama-index-embeddings-upstage [0.1.0]#

  • 集成:upstage LLM 和 Embeddings (#13193)

llama-index-llms-gemini [0.1.8]#

  • feat: 为 multimodal LLM 和常规 LLM 添加 gemini 新模型 (#13539)

llama-index-llms-groq [0.1.4]#

  • 修复:启用工具使用 (#13566)

llama-index-llms-lmstudio [0.1.0]#

  • 添加对 lmstudio 集成的支持 (#13557)

llama-index-llms-nvidia [0.1.3]#

  • 废弃 mode(),转而使用 __init__(base_url=...) (#13572)

llama-index-llms-openai [0.1.20]#

  • 更新 openai 的重试触发方式 (#13608)

llama-index-llms-unify [0.1.0]#

  • 添加 Unify LLM 支持 (#12921)

llama-index-llms-upstage [0.1.0]#

  • 集成:upstage LLM 和 Embeddings (#13193)

llama-index-llms-vertex [0.1.6]#

  • 添加对 MedLM 模型支持 (#11911)

llama_index.postprocessor.dashscope_rerank [0.1.0]#

  • 为 postprocessor 添加 dashscope rerank (#13353)

llama-index-postprocessor-nvidia-rerank [0.1.2]#

  • 废弃 mode(),转而使用 __init__(base_url=...) (#13572)

llama-index-readers-mongodb [0.1.5]#

  • SimpleMongoReader 应允许 metadata 中的可选字段 (#13575)

llama-index-readers-papers [0.1.5]#

  • 修复:(ArxivReader) 从隐藏目录读取数据时将 exclude_hidden 设置为 False (#13578)

llama-index-readers-sec-filings [0.1.5]#

  • 修复:向 sec.gov 发出请求时的 sec_filings header 问题 #13548

llama-index-readers-web [0.1.16]#

  • 添加了 firecrawl search 模式 (#13560)
  • 更新了 Browserbase web reader (#13535)

llama-index-tools-cassandra [0.1.0]#

  • 为 agents 添加了 Cassandra 数据库工具规范 (#13423)

llama-index-vector-stores-azureaisearch [0.1.7]#

  • 允许在没有非空 metadata 字段的情况下查询 AzureAISearch (#13531)

llama-index-vector-stores-elasticsearch [0.2.0]#

  • 集成 Elasticsearch client 的 VectorStore (#13291)

llama-index-vector-stores-milvus [0.1.14]#

  • 修复 Milvus vector store 的 filter expression 构建问题 (#13591)

llama-index-vector-stores-supabase [0.1.4]#

  • 删除时断开连接 (#13611)

llama-index-vector-stores-wordlift [0.1.0]#

  • 添加了 WordLift Vector Store (#13028)

[2024-05-14]#

llama-index-core [0.10.37]#

  • 在调用时为 MultiModalLLMCompletionProgram 添加 image_documents (#13467)
  • 通过从 threading 切换到 asyncio 修复 RuntimeError (#13486)
  • 添加对 prompt kwarg 的支持 (#13405)
  • VectorStore -> BasePydanticVectorStore (#13439)
  • 修复:user_message 不存在 bug (#13432)
  • 导入缺失的 response type (#13382)
  • MultiModalLLM 添加 CallbackManager (#13400)

llama-index-llms-bedrock [0.1.8]#

  • 从 Bedrock Cohere invoke model request 中移除 "Truncate" 参数 (#13442)

llama-index-readers-web [0.1.14]#

  • Trafilatura kwargs 和 trafilatura web reader 的进度条 (#13454)

llama-index-vector-stores-postgres [0.1.8]#

  • 修复 #9522 - 使用混合搜索时 SQLAlchemy 警告 (#13476)

llama-index-vector-stores-lantern [0.1.4]#

  • 修复 #9522 - 使用混合搜索时 SQLAlchemy 警告 (#13476)

维护更新以跟上 lantern 构建版本 (#13116)

  • 更新 UpTrain Callback Handler 以支持新的 Upgratin eval schema (#13479)

llama-index-vector-stores-zep [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-vearch [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-upstash [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-typesense [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-timescalerevector [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-tencentvectordb [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-tair [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-singlestoredb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-rocksetdb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-neptune [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-neo4jvector [0.1.5]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-myscale [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-metal [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-jaguar [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-epsilla [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-dynamodb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-dashvector [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-chatgpt-plugin [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-baiduvectordb [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-bagel [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-awsdocdb [0.1.5]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-awadb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-alibabacloud-opensearch [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-wordlift [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-guru [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-pebblo [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-postprocessor-voyageai-rerank [0.1.2]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-sbert-rerank [0.1.4]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-rankllm-rerank [0.1.3]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-rankgpt-rerank [0.1.4]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-openvino-rerank [0.1.3]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-nvidia-rerank [0.1.1]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-jinaai-rerank [0.1.3]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-flag-embedding-rerank [0.1.3]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-colbert-rerank [0.1.2]#

  • 提升 rerank 版本 (#13465)

llama-index-postprocessor-cohere-rerank [0.1.6]#

  • 提升 rerank 版本 (#13465)

llama-index-multi-modal-llms-openai [0.1.6]#

  • 支持 gpt-4o (#13463)

llama-index-llms-openai [0.1.19]#

  • 支持 gpt-4o (#13463)

llama-index-packs-rag-fusion-query-pipeline [0.1.4]#

  • 修复 RAG fusion pipeline (#13413)

llama-index-agent-openai [0.2.5]#

  • 修复:更新 OpenAIAssistantAgent 以使用 attachments (#13341)

llama-index-embeddings-deepinfra [0.1.0]#

  • 新的 embeddings 集成 (#13323)

llama-index-llms-mlx [0.1.0]#

  • 新的 llm 集成 (#13231)

llama-index-vector-stores-milvus [0.1.12]#

  • 修复:更正 connections.connect() 中的连接参数 (#13448)

llama-index-vector-stores-azureaisearch [0.1.6]#

  • 修复 AzureAiSearchVectorStore metadata f-string (#13435)

llama-index-vector-stores-mongodb [0.1.5]#

  • 为 MongoDBAtlasVectorSearch 添加 Unit 和 Integration 测试 (#12854)

llama-index-llms-huggingface [0.2.0]#

  • 更新 llama-index-llms-huggingface 依赖项 (#13420)

llama-index-vector-store-relyt [0.1.0]#

  • 新的 vector store 集成

llama-index-storage-kvstore-redis [0.1.5]#

  • 在 RedisKVStore 中实现 async 方法 (#12943)

llama-index-packs-cohere-citation-chat [0.1.5]#

  • 固定 llama-index-llms-cohere 依赖项 (#13417)

llama-index-llms-cohere [0.2.0]#

  • 固定 cohere 依赖项 (#13417)

llama-index-tools-azure-code-interpreter [0.1.1]#

  • 修复索引问题和运行时错误消息 (#13414)

llama-index-postprocessor-cohere-rerank [0.1.5]#

  • 修复 Cohere Rerank bug (#13410)

llama-index-indices-managed-llama-cloud [0.1.7]#

  • 修复 retriever 集成问题 (#13409)

llama-index-tools-azure-code-interpreter [0.1.0]#

  • 新工具

llama-index-readers-google [0.2.5]#

  • 修复 GoogleDriveReader 中缺失 authorized_user_info 检查的问题 (#13394)

llama-index-storage-kvstore-firestore [0.2.1]#

  • await Firestore 的 AsyncDocumentReference (#13386)

llama-index-llms-nvidia [0.1.2]#

  • 添加动态模型列表支持 (#13398)

[2024-05-09]#

llama-index-core [0.10.36]#

  • 使用 MarkdownElementParser 添加 start_char_idx 和 end_char_idx (#13377)
  • 使用全局默认 handlers (#13368)

llama-index-readers-pebblo [0.1.0]#

  • 初始发布 (#13128)

llama-index-llms-cohere [0.1.7]#

  • 使用 documents 参数调用 Cohere RAG 推理 (#13196)

llama-index-vector-scores-kdbai [0.1.6]#

  • 更新 add 方法解码 utf-8 (#13194)

llama-index-vector-stores-alibabacloud-opensearch [0.1.0]#

  • 初始发布 (#13286)

llama-index-tools-multion [0.2.0]#

  • 更新工具以使用更新的 api/sdk (#13373)

llama-index-vector-sores-weaviate [1.0.0]#

  • 更新至 weaviate 客户端 v4 (#13229)

llama-index-readers-file [0.1.22]#

  • 修复 PDFReader 忽略 extra_info 的 bug (#13369)

llama-index-llms-azure-openai [0.1.8]#

  • 添加同步 httpx 客户端支持 (#13370)

llama-index-llms-openai [0.1.18]#

  • 添加同步 httpx 客户端支持 (#13370)
  • 添加缺失的 openai 模型 token 上下文 (#13337)

llama-index-readers-github [0.1.9]#

  • 添加 fail_on_http_error (#13366)

llama-index-vector-stores-pinecone [0.1.7]#

  • 为 pinecone 添加 attribution tag (#13329)

llama-index-llms-nvidia [0.1.1]#

  • 设置默认 max_tokens 为 1024 (#13371)

llama-index-readers-papers [0.1.5]#

  • 修复 arxiv reader 的 hiddent temp directory 问题 (#13351)

llama-index-embeddings-nvidia [0.1.1]#

  • 修复 truncate 传递 aget_query_embedding 和 get_text_embedding 的问题 (#13367)

llama-index-llms-anyscare [0.1.4]#

  • 添加 llama-3 模型 (#13336)

[2024-05-07]#

llama-index-agent-introspective [0.1.0]#

  • 添加 CRITIC 和 reflection agent 集成 (#13108)

llama-index-core [0.10.35]#

  • 修复 from_defaults() 清除 summary memory buffer history 的问题 (#13325)
  • 在核心模块中使用现有 async event loop 而非 asyncio.run() (#13309)
  • 修复 condense question chat engine 中 query engine 的 async streaming 问题 (#13306)
  • 处理 element node parsers 中 extract_table_summaries 的 ValueError (#13318)
  • 为 QASummaryQueryEngineBuilder 和 RouterQueryEngine 正确处理 llm (#13281)
  • 扩展 instrumentation payloads (#13302)
  • 修复 sql join statement 缺少 schema 的 bug (#13277)

llama-index-embeddings-jinaai [0.1.5]#

  • 在 JinaEmbedding 类中添加 encoding_type 参数 (#13172)
  • 修复 JinaEmbeddings 中的 encoding type 访问问题 (#13315)

llama-index-embeddings-nvidia [0.1.0]#

  • 添加 nvidia nim embeddings 支持 (#13177)

llama-index-llms-mistralai [0.1.12]#

  • 修复与 Mistral AI 进行流式传输时的 async 问题 (#13292)

llama-index-llms-nvidia [0.1.0]#

  • 添加 nvidia nim llm 支持 (#13176)

llama-index-postprocessor-nvidia-rerank [0.1.0]#

  • 添加 nvidia nim rerank 支持 (#13178)

llama-index-readers-file [0.1.21]#

  • 更新 MarkdownReader 以解析第一个 header 之前的文本 (#13327)

llama-index-readers-web [0.1.13]#

  • feat: Spider Web Loader (#13200)

llama-index-vector-stores-vespa [0.1.0]#

  • 为 Vespa 添加 VectorStore 集成 (#13213)

llama-index-vector-stores-vertexaivectorsearch [0.1.0]#

  • 添加对 Vertex AI Vector Search 作为 Vector Store 的支持 (#13186)

[2024-05-02]#

llama-index-core [0.10.34]#

  • 在 chat engine 流式传输期间移除错误忽略 (#13160)
  • 添加 structured planning agent (#13149)
  • 更新 planner agent 的基类 (#13228)
  • 修复:使用 SimpleFileNodeParser 解析文件且文件扩展名不在 FILE_NODE_PARSERS 中的错误 (#13156)
  • 向 node parsers 添加匹配的 source_node.node_id 验证 (#13109)
  • Retrieval Metrics:更新 HitRate 和 MRR 以进行 Evaluation@K 文档检索。同时添加 RR 作为单独指标 (#12997)
  • 添加 chat summary memory buffer (#13155)

llama-index-indices-managed-zilliz [0.1.3]#

  • ZillizCloudPipelineIndex 接受灵活参数创建 pipelines (#10134, #10112)

llama-index-llms-huggingface [0.1.7]#

  • 添加 Hugging Face text-generation-inference 集成的工具使用支持 (#12471)

llama-index-llms-maritalk [0.2.0]#

  • 为 maritalk 添加流式处理 (#13207)

llama-index-llms-mistral-rs [0.1.0]#

  • 集成 mistral.rs LLM (#13105)

llama-index-llms-mymagic [0.1.7]#

  • mymagicai api 更新 (#13148)

llama-index-llms-nvidia-triton [0.1.5]#

  • Nvidia Triton 集成支持流式处理 (#13135)

llama-index-llms-ollama [0.1.3]#

  • 向 ollama llms 添加 async 支持 (#13150)

llama-index-readers-microsoft-sharepoint [0.2.2]#

  • 从 LLMs 和 embeddings 中排除访问控制 metadata keys - SharePoint Reader (#13184)

llama-index-readers-web [0.1.11]#

  • feat: Browserbase Web Reader (#12877)

llama-index-readers-youtube-metadata [0.1.0]#

  • 添加了 YouTube Metadata Reader (#12975)

llama-index-storage-kvstore-redis [0.1.4]#

  • 修复 redis kvstore key 在 bytes 中的问题 (#13201)

llama-index-vector-stores-azureaisearch [0.1.5]#

  • 遵守 Azure AI Search 的 filter condition (#13215)

llama-index-vector-stores-chroma [0.1.7]#

  • 为新的 chroma 客户端版本小幅提升版本 (#13158)

llama-index-vector-stores-firestore [0.1.0]#

  • 添加 Firestore Vector Store (#12048)

llama-index-vector-stores-kdbai [0.1.5]#

  • 修复 add() 后返回 IDs 的小问题 (#12515)

llama-index-vector-stores-milvus [0.1.11]#

  • 向 MilvusVectorStore 添加混合检索模式 (#13122)

llama-index-vector-stores-postgres [0.1.7]#

  • 在 pgvector store 中参数化 queries (#13199)

[2024-04-27]#

llama-index-core [0.10.33]#

  • 添加 agent_worker.as_agent() (#13061)

llama-index-embeddings-bedrock [0.1.5]#

  • 使用 Bedrock cohere 字符限制 (#13126)

llama-index-tools-google [0.1.5]#

  • 将 attendees 的默认值更改为空列表 (#13134)

llama-index-graph-stores-falkordb [0.1.4]#

  • 当索引已存在时跳过索引创建错误 (#13085)

llama-index-tools-google [0.1.4]#

  • 修复 google calendar create_event api 的 datetime 问题 (#13132)

llama-index-llms-anthropic [0.1.11]#

  • 将多个 prompts 合并为一个 (#13131)

llama-index-indices-managed-llama-cloud [0.1.6]#

  • 在 LlamaCloud Retriever 中使用 MetadataFilters (#13117)

llama-index-graph-stores-kuzu [0.1.3]#

  • 修复 kuzu 集成 .execute() 调用问题 (#13100)

llama-index-vector-stores-lantern [0.1.3]#

  • 维护更新以跟上 lantern 版本 (#13116)

[2024-04-25]#

llama-index-core [0.10.32]#

  • 更正 OutputKeys.from_keys() 的错误输出类型 (#13086)
  • 向 aws base embedding 添加 run_jobs (#13096)
  • 允许用户自定义 keyword extractor prompt template (#13083)
  • (CondenseQuestionChatEngine) 如果没有对话历史,则不凝缩问题 (#13069)
  • QueryPlanTool: 在 query plan 中执行后续 (依赖) 节点的工具调用 (#13047)
  • 修复 fusion retriever 在相似度搜索前有时返回 Nonetype query(s) 的问题 (#13112)

llama-index-embeddings-ipex-llm [0.1.1]#

  • 支持 llama-index-embeddings-ipex-llm 用于 Intel GPU (#13097)

llama-index-packs-raft-dataset [0.1.4]#

  • 修复 raft dataset generator 中的 bug - 多个 system prompts (#12751)

llama-index-readers-microsoft-sharepoint [0.2.1]#

  • 向 SharePoint reader 添加 access control 相关 metadata (#13067)

llama-index-vector-stores-pinecone [0.1.6]#

  • 嵌套 metadata filter 支持 (#13113)

llama-index-vector-stores-qdrant [0.2.8]#

  • 嵌套 metadata filter 支持 (#13113)

[2024-04-23]#

llama-index-core [0.10.31]#

  • 修复 query engine 的 async streaming 响应问题 (#12953)
  • 在 element node parsers 中强制使用 uuid (#12951)
  • 添加 function calling LLM program (#12980)
  • 使 PydanticSingleSelector 支持 async api (#12964)
  • 修复 query pipeline 的 arun_with_intermediates 问题 (#13002)

llama-index-agent-coa [0.1.0]#

  • 添加 COA Agent 集成 (#13043)

llama-index-agent-lats [0.1.0]#

  • 官方 LATs agent 集成 (#13031)

llama-index-agent-llm-compiler [0.1.0]#

  • 添加 LLMCompiler Agent 集成 (#13044)

llama-index-llms-anthropic [0.1.10]#

  • 添加向 Anthropic LLM 请求传递自定义 headers 的功能 (#12819)

llama-index-llms-bedrock [0.1.7]#

  • 在 BedRock 集成中添加 claude 3 opus (#13033)

llama-index-llms-fireworks [0.1.5]#

  • 向 Llama Index for Fireworks 添加新的 Llama 3 和 Mixtral 8x22b 模型 (#12970)

llama-index-llms-openai [0.1.16]#

  • 修复 AsyncOpenAI 在实例快速创建和销毁时出现的 "RuntimeError: Event loop is closed bug" (#12946)
  • 不要重试所有 OpenAI APIStatusError 异常 - 只重试 InternalServerError (#12947)

llama-index-llms-watsonx [0.1.7]#

  • 更新了 IBM watsonx 基础模型 (#12973)

llama-index-packs-code-hierarchy [0.1.6]#

  • 如果 query node 不存在,则返回父节点 (#12983)
  • 修复函数定义两次时的 bug (#12941)

llama-index-program-openai [0.1.6]#

  • 在 OpenAIPydanticProgram 中支持流式传输部分 Pydantic output 类实例 (#13021)

llama-index-readers-openapi [0.1.0]#

  • 添加 openapi 文件 reader (#12998)

llama-index-readers-slack [0.1.4]#

  • 避免抛出未处理异常时的无限循环 (#12963)

llama-index-readers-web [0.1.10]#

  • 改进 whole site reader 以删除重复链接 (#12977)

llama-index-retrievers-bedrock [0.1.1]#

  • 修复 Bedrock KB retriever 以使用 query bundle (#12910)

llama-index-vector-stores-awsdocdb [0.1.0]#

  • 集成 AWS DocumentDB 作为 vector storage 方法 (#12217)

llama-index-vector-stores-databricks [0.1.2]#

  • 修复 databricks vector search metadata 问题 (#12999)

llama-index-vector-stores-neo4j [0.1.4]#

  • Neo4j metadata filter 支持 (#12923)

llama-index-vector-stores-pinecone [0.1.5]#

  • 修复使用 sparse query mode 查询 PineconeVectorStore 的错误 (#12967)

llama-index-vector-stores-qdrant [0.2.5]#

  • async 和检查 collection 是否存在的许多修复 (#12916)

llama-index-vector-stores-weaviate [0.1.5]#

  • 为 WeviateVectoreStore 添加索引删除功能 (#12993)

[2024-04-17]#

llama-index-core [0.10.30]#

  • 向 QueryPipeline 添加 intermediate outputs (#12683)
  • 修复 show progress 导致结果乱序问题 (#12897)
  • 向 simple vector store 添加 OR filter condition 支持 (#12823)
  • 改进 custom agent 初始化 (#12824)
  • 修复无 docstore 时 pipeline 加载问题 (#12808)
  • _arun_step_stream 中使用 async _aprocess_actions (#12846)
  • 向 StreamChatErrorEvent 提供 exception (#12879)
  • 修复 load and search tool spec 中的 bug (#12902)

llama-index-embeddings-azure-opena [0.1.7]#

  • 暴露 azure_ad_token_provider 参数以支持 token 过期 (#12818)

llama-index-embeddings-cohere [0.1.8]#

  • 添加 httpx_async_client 选项 (#12896)

llama-index-embeddings-ipex-llm [0.1.0]#

  • 添加 ipex-llm embedding 集成 (#12740)

llama-index-embeddings-octoai [0.1.0]#

  • 添加 octoai embeddings (#12857)

llama-index-llms-azure-openai [0.1.6]#

  • 暴露 azure_ad_token_provider 参数以支持 token 过期 (#12818)

llama-index-llms-ipex-llm [0.1.2]#

  • 为 IpexLLM 集成添加加载 "low-bit format" 模型支持 (#12785)

llama-index-llms-mistralai [0.1.11]#

  • 支持 open-mixtral-8x22b (#12894)

llama-index-packs-agents-lats [0.1.0]#

  • 添加了 LATS agent pack (#12735)

llama-index-readers-smart-pdf-loader [0.1.4]#

  • 为 documents 使用传入的 metadata (#12844)

llama-index-readers-web [0.1.9]#

  • 添加了 Firecrawl Web Loader (#12825)

llama-index-vector-stores-milvus [0.1.10]#

  • 使用批量插入到 Milvus vector store (#12837)

llama-index-vector-stores-vearch [0.1.0]#

  • 将 vearch 添加到 vector stores (#10972)

[2024-04-13]#

llama-index-core [0.10.29]#

  • BREAKINGPandasQueryEnginePandasInstruction parser 移动到 llama-index-experimental (#12419)
  • 新的安装方式: pip install -U llama-index-experimental
  • 新的导入方式: from llama_index.experimental.query_engine import PandasQueryEngine
  • 修复了一些核心依赖项,以便 python3.12 能良好运行 (#12762)
  • 更新 async utils run_jobs() 以包含 tqdm description (#12812)
  • 重构 kvdocstore delete 方法 (#12681)

llama-index-llms-bedrock [0.1.6]#

  • 支持 Bedrock 的 Mistral Large (#12804)

llama-index-llms-openvino [0.1.0]#

  • 添加了 OpenVino LLMs (#12639)

llama-index-llms-predibase [0.1.4]#

  • 更新 LlamaIndex-Predibase 集成至最新 API (#12736)
  • 在 LlamaIndex-Predibase 集成中启用选择 Predibase 托管或 HuggingFace 托管的 fine-tuned adapters (#12789)

llama-index-output-parsers-guardrails [0.1.3]#

  • 现代化 GuardrailsOutputParser (#12676)

llama-index-packs-agents-coa [0.1.0]#

  • 抽象链 Agent Pack (#12757)

llama-index-packs-code-hierarchy [0.1.3]#

  • 修复了处理多字节字符分块的问题 (#12715)

llama-index-packs-raft-dataset [0.1.4]#

  • 修复 raft dataset generator 中的 bug - 多个 system prompts (#12751)

llama-index-postprocessor-openvino-rerank [0.1.2]#

  • 添加 OpenVINO 重排序支持 (#12688)

llama-index-readers-file [0.1.18]#

  • 在 docx 读取器中如果输入路径是字符串则转换为 Path 对象 (#12807)
  • 使 pip check 对可选的 pdf 包生效 (#12758)

llama-index-readers-s3 [0.1.7]#

  • 在 S3Reader 中使用默认 S3 endpoint 时文档 id 错误 (#12803)

llama-index-retrievers-bedrock [0.1.0]#

  • 添加 Amazon Bedrock 知识库集成作为检索器 (#12737)

llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.3]#

  • 添加 MongoDB Atlas BM25 检索器 (#12519)

llama-index-storage-chat-store-redis [0.1.3]#

  • 修复 Redis chat store 中的消息序列化问题 (#12802)

llama-index-vector-stores-astra-db [0.1.6]#

  • 放宽依赖版本以接受 astrapy 1.* (#12792)

llama-index-vector-stores-couchbase [0.1.0]#

  • 添加对 Couchbase 作为向量存储的支持 (#12680)

llama-index-vector-stores-elasticsearch [0.1.7]#

  • 修复 Elasticsearch 混合 RRF 的 window_size (#12695)

llama-index-vector-stores-milvus [0.1.8]#

  • 添加了从 Milvus 检索元数据字段的支持 (#12626)

llama-index-vector-stores-redis [0.2.0]#

  • 现代化 Redis 向量存储,使用 redisvl (#12386)

llama-index-vector-stores-qdrant [0.2.0]#

  • 重构:切换默认的 Qdrant 稀疏编码器 (#12512)

[2024-04-09]#

llama-index-core [0.10.28]#

  • 在 Markdown 节点解析器中支持缩进代码块围栏 (#12393)
  • 将输出解析器传递给指导评估器 (#12646)
  • 添加了查询管道 + 内存的示例 (#12654)
  • 在 CondensePlusContextChatEngine 异步模式中添加缺失的节点后处理器 (#12663)
  • 为工具/工具元数据添加了 return_direct 选项 (#12587)
  • 为批量评估运行器添加重试 (#12647)
  • 线程安全的观测 (#12638)
  • 协程安全的观测 Spans #12589
  • 在 PDFReader 中为非默认文件系统添加内存加载支持 (#12659)
  • 删除句子分割器中冗余的分词器调用 (#12655)
  • 将 SynthesizeComponent 导入添加到快捷导入 (#12655)
  • 改进了 SimpleSummarize 中的截断 (#12655)
  • 在 eval_utils default_parser 中添加错误处理以确保正确性 (#12624)
  • 在 RankGPT 后处理器节点中添加 async_postprocess_nodes (#12620)
  • 修复 MarkdownNodeParser 的 ref_doc_id (#12615)

llama-index-embeddings-openvino [0.1.5]#

  • 添加了对 OpenVINO 嵌入的初步支持 (#12643)

llama-index-llms-anthropic [0.1.9]#

  • 添加 Anthropic 工具调用 (#12591)

llama-index-llms-ipex-llm [0.1.1]#

  • 添加 ipex-llm 集成 (#12322)
  • 为 ipex-llm llm 集成添加更多数据类型支持 (#12635)

llama-index-llms-openllm [0.1.4]#

  • 在 OpenLLM 中正确使用 PrivateAttr (#12655)

llama-index-multi-modal-llms-anthropic [0.1.4]#

  • 提高了 Anthropic 依赖版本 (#12655)

llama-index-multi-modal-llms-gemini [0.1.5]#

  • 提高了 generativeai 依赖 (#12645)

llama-index-packs-dense-x-retrieval [0.1.4]#

  • 为 DenseXRetrievalPack 添加流式传输支持 (#12607)

llama-index-readers-mongodb [0.1.4]#

  • 提高了 MongoDB 读取器的效率 (#12664)

llama-index-readers-wikipedia [0.1.4]#

  • 为 Wikipedia 读取器添加了多语言支持 (#12616)

llama-index-storage-index-store-elasticsearch [0.1.3]#

  • 从默认集合名称中移除无效字符 (#12672)

llama-index-vector-stores-milvus [0.1.8]#

  • 添加了从 Milvus 检索元数据字段的支持 (#12626)
  • Bug 修复 - MilvusVectorStore 的相似度指标始终是 IP (#12611)

[2024-04-04]#

llama-index-agent-openai [0.2.2]#

  • 更新消息线程类型的导入 (#12437)

llama-index-core [0.10.27]#

  • 修复 Pydantic 查询引擎输出为空白的问题 (#12469)
  • 向 Events (观测) 添加 span_id 属性 (#12417)
  • 修复从 docs 属性检索 RedisDocstore 节点的问题 (#12324)
  • 向 retriever_tool 添加节点后处理器 (#12415)
  • FLAREInstructQueryEngine:如果查询引擎支持,则委托检索器 API (#12503)
  • 使聊天消息到字典的转换更安全 (#12526)
  • 修复批量评估运行器中 multi-kwargs 的检查 (#12563)
  • 修复 agent_react_multimodal_step.py 中 partial args 的 bug (#12566)

llama-index-embeddings-clip [0.1.5]#

  • 添加了从本地文件路径加载 CLIP 模型支持 (#12577)

llama-index-embeddings-cloudflar-workersai [0.1.0]#

  • 文本嵌入集成:Cloudflare Workers AI (#12446)

llama-index-embeddings-voyageai [0.1.4]#

  • 修复类定义中的 Pydantic 问题 (#12469)

llama-index-finetuning [0.1.5]#

  • QA 生成提示中的小拼写错误修复 (#12470)

llama-index-graph-stores-falkordb [0.1.3]#

  • 将 Redis 驱动替换为 FalkorDB 驱动 (#12434)

llama-index-llms-anthropic [0.1.8]#

  • 添加向 Anthropic 客户端传递自定义 HTTP 头部的能力 (#12558)

llama-index-llms-cohere [0.1.6]#

  • 添加对 Cohere Command R+ 模型支持 (#12581)

llama-index-llms-databricks [0.1.0]#

  • 与 Databricks LLM API 集成 (#12432)

llama-index-llms-watsonx [0.1.6]#

  • 更新了 Watsonx 基础模型 (#12493)
  • 更新了 Watsonx 集成的基础模型名称 #12491

lama-index-postprocessor-rankllm-rerank [0.1.2]#

  • 在 RankLLM 中添加 RankGPT 支持 (#12475)

llama-index-readers-microsoft-sharepoint [0.1.7]#

  • SharePoint 默认使用递归策略 (#12557)

llama-index-readers-web [0.1.8]#

  • 可读性网页阅读器修复 playwright 异步 API bug (#12520)

llama-index-vector-stores-kdbai [0.1.5]#

  • to_list 的小修复 (#12515)

llama-index-vector-stores-neptune [0.1.0]#

  • 添加对 Neptune Analytics 作为向量存储的支持 (#12423)

llama-index-vector-stores-postgres [0.1.5]#

  • fix(postgres): 数值元数据过滤器 (#12583)

[2024-03-31]#

llama-index-core [0.10.26]#

  • 在 QueryFusionRetriever 中传递正确的查询 Bundle (#12387)
  • 更新 llama_parse_json_element.py 以修复列表中出现的错误 (#12402)
  • 向检索器工具添加节点后处理器 (#12415)
  • 修复用户指定的 LLM 在元素节点解析器的回退逻辑中未被尊重的问题 (#12403)
  • 为异步回调管理器事件记录正确的 LLM 响应键 (#12421)
  • 删除两个内置 react 系统提示的重复项;并使其从 Markdown 文件读取 (#12307)
  • 修复 BatchEvalRunner 中 multi-evaluator eval_kwargs_lists 的 bug (#12418)
  • 添加向量存储索引 insert_nodes 的回调管理器事件 (#12443)
  • 修复将包含 Pydantic API 对象的聊天消息序列化到 chat stores 时的问题 (#12394)
  • 修复 memory.get() 操作缓慢的问题(由多次调用 get_all() 引起)(#12394)
  • 修复 agent+tool 消息对从内存中被截断的问题 (#12394)
  • 为对象索引添加 FnNodeMapping (#12391)
  • 使对象索引的对象映射可选/隐藏 (#12391)
  • 使对象索引更容易从现有向量数据库创建 (#12391)
  • 当 LLM 未能遵循 react 响应模板时,告知它 #12300

llama-index-embeddings-cohere [0.1.5]#

  • 将 Cohere 版本提高到 5.1.1 (#12279)

llama-index-embeddings-itrex [0.1.0]#

  • 添加 Intel Extension for Transformers 嵌入模型 (#12410)

llama-index-graph-stores-neo4j [0.1.4]#

  • 使 Neo4j 查询不区分大小写 (#12337)

llama-index-llms-cohere [0.1.5]#

  • 将 Cohere 版本提高到 5.1.1 (#12279)

llama-index-llms-ipex-llm [0.1.0]#

  • 添加 ipex-llm 集成 (#12322)

llama-index-llms-litellm [0.1.4]#

  • 修复 litellm ChatMessage 角色验证错误 (#12449)

llama-index-llms-openai [0.1.14]#

  • 在 OpenAI 中使用 FunctionCallingLLM 基类 (#12227)

llama-index-packs-self-rag [0.1.4]#

  • 修复 llama-index-core 依赖 (#12374)

llama-index-postprocessor-cohere-rerank [0.1.4]#

  • 将 Cohere 版本提高到 5.1.1 (#12279)

llama-index-postprocessor-rankllm-rerank [0.1.1]#

  • 添加了 RankLLM 重排序 (#12296)
  • RankLLM 修复 (#12399)

llama-index-readers-papers [0.1.4]#

  • 修复路径名称的 bug (#12366)

llama-index-vector-stores-analyticdb [0.1.1]#

  • 添加 AnalyticDB VectorStore (#12230)

llama-index-vector-stores-kdbai [0.1.4]#

  • 修复导入/readme 中的拼写错误 (#12370)

llama-index-vector-stores-qdrant [0.1.5]#

  • 为 Qdrant 添加 in 过滤器操作符 (#12376)

[2024-03-27]#

llama-index-core [0.10.25]#

  • 在 KnowledgeGraphQueryEngine 中向 NodeWithScore 添加分数 (#12326)
  • 批量评估运行器修复 (#12302)

llama-index-embeddings-cohere [0.1.5]#

  • 添加了对二进制/量化嵌入的支持 (#12321)

llama-index-llms-mistralai [0.1.10]#

  • 为 MistralAI 添加自定义 endpoint 支持 (#12328)

llama-index-storage-kvstore-redis [0.1.3]#

  • 修复从 docs 属性检索 RedisDocstore 节点的问题 (#12324)

[2024-03-26]#

llama-index-core [0.10.24]#

  • LlamaDebugHandler 中的漂亮打印 (#12216)
  • 对 pandas 查询引擎施加更严格的解释器约束 (#12278)
  • PandasQueryEngine 现在可以执行 'pd.*' 函数 (#12240)
  • 在 docstore delete 函数中删除正确的元数据 (#12276)
  • 改进了 OpenAI agent 解析函数钩子 (#12062)
  • 为 SimpleDirectoryReader 添加 raise_on_error 标志 (#12263)
  • 移除核心中未捕获的 OpenAI 导入 (#12262)
  • 修复 download_llama_dataset 和 download_llama_pack (#12273)
  • 实现 EvalQueryEngineTool (#11679)
  • 扩展 AgentRunner 的观测 Span 覆盖范围 (#12249)
  • 添加函数调用 agent/llm 的概念(目前支持 Mistral)(#12222, )

llama-index-embeddings-huggingface [0.2.0]#

  • 使用 sentence-transformers 作为后端 (#12277)

llama-index-postprocessor-voyageai-rerank [0.1.0]#

  • 添加 voyageai 作为重排序器 (#12111)

llama-index-readers-gcs [0.1.0]#

  • 添加 Google Cloud Storage 读取器 (#12259)

llama-index-readers-google [0.2.1]#

  • 支持不同的云盘 (#12146)
  • 从 Google Drive Reader 中移除不必要的 PyDrive 依赖 (#12257)

llama-index-readers-readme [0.1.0]#

  • 添加 readme.com 读取器 (#12246)

llama-index-packs-raft [0.1.3]#

  • 添加 RAFT pack (#12275)

[2024-03-23]#

llama-index-core [0.10.23]#

  • 向基础 LLM 类 + OpenAI + MistralAI 添加 (a)predict_and_call() 函数 (#12188)
  • 修复异步 agent 流式传输中 wait() 的 bug (#12187)

llama-index-embeddings-alephalpha [0.1.0]#

  • 添加 alephalpha 嵌入 (#12149)

llama-index-llms-alephalpha [0.1.0]#

  • 添加 alephalpha LLM (#12149)

llama-index-llms-openai [0.1.7]#

  • 修复异步 agent 流式传输中 wait() 的 bug (#12187)

llama-index-readers-docugami [0.1.4]#

  • 修复 docugami 读取器中的导入错误 (#12154)

llama-index-readers-file [0.1.12]#

  • 修复远程文件系统 PDFReader (#12186)

[2024-03-21]#

llama-index-core [0.10.22]#

  • 文档后端从 sphinx 更新到 mkdocs,添加了所有 API 参考,进行了一些轻微重组,优化了搜索 (#11301)
  • 向 BaseReader 类添加异步加载支持(目前是模拟异步)(#12156)
  • 修复 SimpleDirectoryReader 中非本地文件系统的路径实现 (#12141)
  • 在观测中,为 spans 添加 args/kwargs,为检索事件添加 payloads (#12147)
  • [React Agent] 发生异常时,告知它,以便 Agent 可以自行纠正 (#12137)

llama-index-embeddings-together [0.1.3]#

  • 添加速率限制处理 (#12127)

llama-index-graph-stores-neptune [0.1.3]#

  • 添加对 Amazon Neptune 作为图存储的支持 (#12097)

llama-index-llms-vllm [0.1.7]#

  • 修复 VllmServer 在不需要 CUDA 的 vllm core 下工作的问题 (#12003)

llama-index-readers-s3 [0.1.4]#

  • 在 S3Reader 中使用 S3FS (#12061)

llama-index-storage-docstore-postgres [0.1.3]#

  • 添加正确的 kvstore 依赖 (#12157)

llama-index-storage-index-store-postgres [0.1.3]#

  • 添加正确的 kvstore 依赖 (#12157)

llama-index-vector-stores-elasticsearch [0.1.6]#

  • 修复 Elasticsearch add 函数中未关闭的会话 #12135

llama-index-vector-stores-kdbai [0.1.3]#

  • 添加对 KDBAIVectorStore 的支持 (#11967)

[2024-03-20]#

llama-index-core [0.10.21]#

  • StreamingAgentChatResponse 异步元素的懒加载 (#12116)
  • 修复 SynthesisEndEvent 导致的流式生成器获取 bug (#12092)
  • CLIP 嵌入支持更多模型 (#12063)

llama-index-packs-raptor [0.1.3]#

  • 向 summary module 添加 num_workers (#)

llama-index-readers-telegram [0.1.5]#

  • 修复日期时间字段 (#12112)
  • 添加选择帖子/消息时间段的功能 (#12078)

llama-index-embeddings-openai [0.1.7]#

  • 为 OpenAI 嵌入添加可选的 API 版本/基础 API (#12091)

llama-index-networks [0.2.1]#

  • 向网络检索器添加节点后处理 (#12027)
  • 添加隐私安全的网络演示 (#12027)

llama-index-callbacks-langfuse [0.1.3]#

  • 例行任务:提高 langfuse 依赖的最低版本 (#12077)

llama-index-embeddings-google [0.1.4]#

  • 例行任务:提高 google-generativeai 依赖 (#12085)

llama-index-embeddings-gemini [0.1.5]#

  • 例行任务:提高 google-generativeai 依赖 (#12085)

llama-index-llms-gemini [0.1.6]#

  • 例行任务:提高 google-generativeai 依赖 (#12085)

llama-index-llms-palm [0.1.4]#

  • 例行任务:提高 google-generativeai 依赖 (#12085)

llama-index-multi-modal-llms-google [0.1.4]#

  • 例行任务:提高 google-generativeai 依赖 (#12085)

llama-index-vector-stores-google [0.1.5]#

  • 例行任务:提高 google-generativeai 依赖 (#12085)

llama-index-storage-kvstore-elasticsearch [0.1.0]#

  • 新集成 (#12068)

llama-index-readers-google [0.1.7]#

  • 修复 - Google Drive 无法加载同名文件的问题 (#12022)

llama-index-vector-stores-upstash [0.1.3]#

  • 为 UpstashVectorStore 添加元数据过滤支持 (#12054)

llama-index-packs-raptor [0.1.2]#

  • 修复:防止 RaptorPack 无限递归 (#12008)

llama-index-embeddings-huggingface-optimum [0.1.4]#

  • Fix(OptimumEmbedding): 移除导致 ONNX 验证问题的 token_type_ids

llama-index-llms-anthropic [0.1.7]#

  • 修复:Anthropic LLM 合并具有相同角色的连续消息 (#12013)

llama-index-packs-diff-private-simple-dataset [0.1.0]#

  • 差异隐私 ICL Pack - OpenAI Completion LLMs (#11881)

llama-index-cli [0.1.11]#

  • 从 download_llama_dataset 命令中移除 llama_hub_url 关键字 (#12038)

[2024-03-14]#

llama-index-core [0.10.20]#

  • 用于可观测性的新观测模块 (#11831)
  • 允许为 CitationQueryEngine 传入 LLM (#11914)
  • 更新 keyval docstore,除了命名空间外还允许更改后缀 (#11873)
  • 向 query_engine 添加(部分)异步流式传输支持 #11949

llama-index-embeddings-dashscope [0.1.3]#

  • 修复查询文本的嵌入类型 (#11901)

llama-index-embeddings-premai [0.1.3]#

  • 支持 premai 嵌入 (#11954)

llama-index-networks [0.2.0]#

  • 添加了对网络检索器的支持 (#11800)

llama-index-llms-anthropic [0.1.6]#

  • 添加了对 haiku 的支持 (#11916)

llama-index-llms-mistralai [0.1.6]#

  • 修复 ChatMessage 的导入错误 (#11902)

llama-index-llms-openai [0.1.11]#

  • 为 AZURE_TURBO_MODELS 添加 gpt-35-turbo-0125 (#11956)
  • 修复 logprobs 中 nontype 的错误 (#11967)

llama-index-llms-premai [0.1.4]#

  • 支持 premai LLM (#11954)

llama-index-llms-solar [0.1.3]#

  • 支持 solar 作为 LLM 类 (#11710)

llama-index-llms-vertex [0.1.5]#

  • 在 Vertex 中添加对 medlm 的支持 (#11911)

llama-index-readers-goolge [0.1.6]#

  • 为 Google Drive 读取器添加 README 文件和查询字符串 (#11724)

llama-index-readers-file [0.1.11]#

  • 更新 ImageReader,添加 plain_text 选项以触发 pytesseract (#11913)

llama-index-readers-pathway [0.1.3]#

  • 使用纯 requests 减少依赖,简化代码 (#11924)

llama-index-retrievers-pathway [0.1.3]#

  • 使用纯 requests 减少依赖,简化代码 (#11924)

llama-index-storage-docstore-mongodb [0.1.3]#

  • 允许更改 mongodb docstore 的后缀 (#11873)

llama-index-vector-stores-databricks [0.1.1]#

  • 支持 Databricks 向量搜索作为向量存储 (#10754)

llama-index-vector-stores-opensearch [0.1.8]#

  • (重新)实现正确的删除 (#11959)

llama-index-vector-stores-postgres [0.1.4]#

  • 修复 IN 过滤器和 OR 文本搜索 (#11872, #11927)

[2024-03-12]#

llama-index-cli [0.1.9]#

  • 移除 chroma 作为捆绑依赖,以减少 llama-index 依赖

llama-index-core [0.10.19]#

  • 在 OpenAI llm 类中引入速率限制重试 (#11867)
  • 在 SQLDatabase 的 SQL 表 schema 中添加表注释 (#11774)
  • 向 ChatResponse 对象添加 LogProb 类型 (#11795)
  • 引入 LabelledSimpleDataset (#11805)
  • 修复插入包含不可序列化对象的 IndexNode 对象 (#11836)
  • 修复 CondenseQuestionChatEngine 中将流式聊天响应写入历史记录时的类型错误 (#11856)
  • 改进 json 查询引擎的后处理 (#11862)

llama-index-embeddings-cohere [0.1.4]#

  • 修复异步 kwarg 错误 (#11822)

llama-index-embeddings-dashscope [0.1.2]#

  • 修复 Pydantic 导入 (#11765)

llama-index-graph-stores-neo4j [0.1.3]#

  • 验证连接后正确关闭连接 (#11821)

llama-index-llms-cohere [0.1.3]#

  • 添加对新 command-r 模型支持 (#11852)

llama-index-llms-huggingface [0.1.4]#

  • 修复带特殊 token 的流式解码 (#11807)

llama-index-llms-mistralai [0.1.5]#

  • 添加了对最新模型和开源模型支持 (#11792)

llama-index-tools-finance [0.1.1]#

  • 修复传入获取股票新闻 API 时的小 bug (#11772)

llama-index-vector-stores-chroma [0.1.6]#

  • 精简 chroma 依赖 (#11775)

llama-index-vector-stores-lancedb [0.1.3]#

  • 删除修复 (#11825)

llama-index-vector-stores-postgres [0.1.3]#

  • 支持嵌套元数据过滤器 (#11778)

[2024-03-07]#

llama-index-callbacks-deepeval [0.1.3]#

  • 更新回调处理器的导入路径 (#11754)

llama-index-core [0.10.18]#

  • 确保 LoadAndSearchToolSpec 加载文档对象 (#11733)
  • 修复 QueryFusionRetriever 中没有节点的 bug (#11759)
  • 允许 BatchEvalRunner 中不同评估器使用不同的运行时 kwargs (#11727)
  • 修复 fsspec + SimpleDirectoryReader 的问题 (#11665)
  • 移除 guideline evaluator 对 asyncio.run() 的要求 (#11719)

llama-index-embeddings-voyageai [0.1.3]#

  • 更新 voyage 嵌入以使用正确的客户端 (#11721)

llama-index-indices-managed-vectara [0.1.3]#

  • 修复 vectara query engine 在非摘要模式下的问题 (#11668)

llama-index-llms-mymagic [0.1.5]#

  • 添加 json 输出包含查询和响应的 return_output 选项 (#11761)

llama-index-packs-code-hierarchy [0.1.0]#

  • 添加了 CodeHiearchyAgentPack 支持,它允许以 agent 方式遍历代码库 (#10671)

llama-index-packs-cohere-citation-chat [0.1.3]#

  • 添加了一个新的 llama-pack,用于引用 + 与 cohere 聊天 (#11697)

llama-index-vector-stores-milvus [0.1.6]#

  • 防止在添加文档时强制 flush() (#11734)

llama-index-vector-stores-opensearch [0.1.7]#

  • 元数据列名中的小拼写错误 (#11751)

llama-index-vector-stores-tidbvector [0.1.0]#

  • TiDB 向量存储的初步支持 (#11635)

llama-index-vector-stores-weaviate [0.1.4]#

  • 元数据过滤器中 int 字段的小修复 (#11742)

[2024-03-06]#

新格式!尝试按包报告变更。

llama-index-cli [0.1.8]#

  • 更新 upgrade 命令的映射 (#11699)

llama-index-core [0.10.17]#

  • 向 QueryFusionRetriever 添加 relative_score 和 dist_based_score (#11667)
  • 检查异步 agent 队列中的 None (#11669)
  • 允许 BaseSQLTableQueryEngine 使用 refine 模板 (#11378)
  • 更新 llama-packs 的映射 (#11699)
  • 修复 KG 索引中提取相关文本的索引错误 (#11695)
  • 当没有节点时,合成器返回正确的响应类型 (#11701)
  • 在 DocumentSummaryIndex 中将元数据继承到摘要 (#11671)
  • 在 SQL 查询引擎中继承回调管理器 (#11662)
  • 修复 agent 流式传输未写入聊天历史记录的 bug (#11675)
  • 修复通过 agent 流式传输函数调用时 none deltas 的小 bug (#11713)

llama-index-multi-modal-llms-anthropic [0.1.2]#

  • 添加了对新的多模态模型 haiku 和 sonnet 的支持 (#11656)

llama-index-packs-finchat [0.1.0]#

  • 添加了一个新的 llama-pack,用于分层 agent + 金融聊天 (#11387)

llama-index-readers-file [0.1.8]#

  • 添加了检查 NLTK 文件是否已下载的支持 (#11676)

llama-index-readers-json [0.1.4]#

  • 创建文档时使用传入的元数据 (#11626)

llama-index-vector-stores-astra-db [0.1.4]#

  • 更新警告消息中的措辞 (#11702)

llama-index-vector-stores-opensearch [0.1.7]#

  • 避免在代码中调用 nest_asyncio.apply(),以避免给用户造成困惑的错误 (#11707)

llama-index-vector-stores-qdrant [0.1.4]#

  • 捕获 RPC 错误 (#11657)

[0.10.16] - 2024-03-05#

新特性#

  • Anthropic 支持新模型 (#11623, #11612)
  • 更轻松地创建聊天提示 (#11583)
  • 添加了一个 Raptor 检索器 llama-pack (#11527)
  • 通过 Bedrock 改进 Cohere 批量嵌入 (#11572)
  • 添加了对 Vertex AI 嵌入的支持 (#11561)

Bug 修复/小改进#

  • 确保异步嵌入生成中的顺序 (#11562)
  • 修复 csv 读取器空元数据的问题 (#11563)
  • 可组合检索器的序列化修复 (#11617)
  • 修复 Milvus 元数据过滤器支持 (#11566)
  • 修复 ClickHouse 向量存储中的 Pydantic 导入 (#11631)
  • 修复 gemini/vertext-gemini 的系统提示 (#11511)

[0.10.15] - 2024-03-01#

新特性#

  • 添加 FeishuWikiReader (#11491)
  • 添加 videodb 检索器集成 (#11463)
  • 向 OpenSearch 向量存储添加异步支持 (#11513)
  • 新的 LangFuse 一键式回调处理器 (#11324)

Bug 修复/小改进#

  • 修复异步聊天流式传输的死锁问题 (#11548)
  • 改进 SimpleDirectoryReader 中的隐藏文件检查 (#11496)
  • 修复 SimpleDirectoryReader 中文档元数据中的空值 (#11501)
  • 修复 jsonalyze 查询引擎中的 sqlite utils (#11519)
  • 向 Ollama 多模态 LLM 添加 base url 和 timeout (#11526)
  • 更新 query fusion retriever 中的重复处理 (#11542)
  • 修复 kg indexx 结构更新中的 bug (#11475)

[0.10.14] - 2024-02-28#

新特性#

  • 发布 llama-index-networks (#11413)
  • Jina 重排序器 (#11291)
  • 添加 DuckDuckGo agent 搜索工具 (#11386)
  • chatml 的 helper 函数 (#10272)
  • 添加 brave 搜索工具用于 agents (#11468)
  • 添加 Friendli LLM 集成 (#11384)
  • 只查询 ChromaDB 元数据 (#11328)

Bug 修复/小改进#

  • 修复合成器中继承 llm 回调的问题 (#11404)
  • 捕获 Milvus 中的删除错误 (#11315)
  • 修复 Pinecone kwargs 问题 (#11422)
  • Supabase 元数据过滤修复 (#11428)
  • Gemini 嵌入中的 API base 修复 (#11393)
  • 修复 Elasticsearch 向量存储 await (#11438)
  • vllm server cuda 修复 (#11442)
  • 修复向 context chat engine 传递 LLM 的问题 (#11444)
  • 为 Cohere 嵌入设置输入类型 (#11288)
  • Azure AD token 的默认值 (#10377)
  • 重新添加 React Agent 的提示 mixin (#10610)
  • 修复 Gemini 的系统角色 (#11481)
  • 修复 mean agg pooling 返回 numpy float 值的问题 (#11458)
  • 改进 JSONQueryEngine 的 json 路径解析 (#9097)

[0.10.13] - 2024-02-26#

新特性#

  • 添加了一个用于 KodaRetriever 的 llama-pack,用于即时 alpha 调优 (#11311)
  • 添加了对 mistral-large 的支持 (#11398)
  • HuggingFace 嵌入模型(如 SFR-Embedding-Mistral)的最后一个 token 池化模式 (#11373)
  • 向 SimpleDirectoryReader 添加 fsspec 支持 (#11303)

Bug 修复/小改进#

  • 修复 context window + prompt helper 的问题 (#11379)
  • 将 OpenSearch 向量存储移至 BasePydanticVectorStore (#11400)
  • 修复 fireworks LLM 中的函数调用 (#11363)
  • 使 Cohere 嵌入类型更自动化 (#11288)
  • 改进 React Agent 中的函数调用 (#11280)
  • 修复 MockLLM 导入 (#11376)

[0.10.12] - 2024-02-22#

新特性#

  • 添加了 llama-index-postprocessor-colbert-rerank 包 (#11057)
  • MyMagicAI LLM (#11263)
  • MariaTalk LLM (#10925)
  • 为 GitHub 读取器添加重试 (#10980)
  • 添加 FireworksAI 嵌入和 LLM 模块 (#10959)

Bug 修复/小改进#

  • 修复 Weaviate 中的字符串格式化问题 (#11294)
  • 修复语义分割器中的 off-by-one 错误 (#11295)
  • 修复 download_llama_pack 处理多个文件的问题 (#11272)
  • 从包中移除 BUILD 文件 (#11267)
  • 放宽所有包的 Python 版本要求 (#11267)
  • 修复 ChromaDB 的 args 问题 (#11104)

[0.10.11] - 2024-02-21#

Bug 修复/小改进#

  • 修复异步 acomplete 的多模态 LLM (#11064)
  • 修复 llamaindex-cli 导入问题 (#11068)

[0.10.10] - 2024-02-20#

抱歉,我们的发布流程还有些不顺畅。这只是一个版本升级,以确保本应在 0.10.9 版本中发布的变更确实已发布。(AF)

[0.10.9] - 2024-02-20#

  • 添加 llama-index-cli 依赖

[0.10.7] - 2024-02-19#

新特性#

  • 添加 Self-Discover llamapack (#10951)

Bug 修复/小改进#

  • 修复 CICD 中的 linting 问题 (#10945)
  • 修复使用远程图存储的问题 (#10971)
  • 在 NoText 响应合成器中添加缺失的 LLM kwarg (#10971)
  • 修复 rankgpt 中的 OpenAI 导入 (#10971)
  • 修复 OpenAI 嵌入中将模型名称解析为字符串的问题 (#10971)
  • 句子窗口节点解析器中的 off-by-one 错误 (#10971)

[0.10.6] - 2024-02-17#

首先,很抱歉遗漏了最近几个版本的变更日志。我们正在努力为 400 多个包找到最佳流程。

在某个时候,每个包都会有专门的变更日志。

但目前,先发布“主”变更日志。

新特性#

  • 添加 NomicHFEmbedding (#10762)
  • 添加 MinioReader (#10744)

Bug 修复/小改进#

  • ClickHouse 向量存储的各种修复 (#10799)
  • 修复 Neo4j 向量存储中的索引名称 (#10749)
  • SageMaker 嵌入的修复 (#10778)
  • 修复分割节点时的性能问题 (#10766)
  • 修复 reranker + b25 中的非浮点值 (#10930)
  • OpenAI-agent 应作为 OpenAI 程序的依赖 (#10930)
  • 添加查询管道组件缺失的快捷导入 (#10930)
  • 修复 NLTK 和 tiktoken 未正确与核心捆绑的问题 (#10930)
  • 重新添加 llama_index.core.__version__ (#10930)

[0.10.3] - 2024-02-13#

Bug 修复/小改进#

  • 修复将 LLM 传递给 as_chat_engine 的问题 (#10605)
  • 修复 Anthropic 系统提示格式 (#10603)
  • 修复 Elasticsearch 向量存储在 __version__ 上的错误 (#10656)
  • 修复 OpenAI Pydantic program 的导入 (#10657)
  • 将客户端重新添加回 OpenSearch 向量存储导出 (#10660)
  • 修复 SimpleDirectoryReader 未正确使用文件加载器的 bug (#10655)
  • 向 RankGPT 添加懒加载 LLM 初始化 (#10648)
  • 修复 Bedrock embedding from_credentials 传递模型名称的问题 (#10640)
  • 重新添加 TelegramReader 最近的更改 (#10625)

[0.10.0, 0.10.1] - 2024-02-12#

重大变更#

[0.9.48] - 2024-02-12#

Bug 修复/小改进#

  • 重新添加 BedrockEmbdding 的弃用 API (#10581)

[0.9.47] - 2024-02-11#

v0.10 发布前的最后一个补丁!

新特性#

  • 向查询管道添加条件链接 (#10520)
  • 重构条件链接 + 添加到 cookbook (#10544)
  • agent + 查询管道清理 (#10563)

Bug 修复/小改进#

  • 添加 sleep 以修复聊天流中的延迟 (#10339)
  • OllamaMultiModal kwargs (#10541)
  • 更新摄取管道以处理空文档 (#10543)
  • 修复小拼写错误 (#10516)
  • 修复 Elasticsearch 异步检查 (#10549)
  • 文档/更新 Slack demo Colab (#10534)
  • 为 PGVectorStore 添加使用 IN 操作符的可能性 (#10547)
  • 修复 agent 重置 (#10562)
  • 修复来自多个文档的 Markdown 重复节点 id (#10564)

[0.9.46] - 2024-02-08#

新特性#

  • 更新嵌入模型的池化策略 (#10536)
  • 添加多模态视频 RAG 示例 (#10530)
  • 添加 SECURITY.md (#10531)
  • 将 agent 模块指南上移一级 (#10519)

Bug 修复/小改进#

  • Deeplake 修复 (#10529)
  • 为 llamaindex 添加 Cohere 部分 (#10523)
  • 修复 Markdown 元素 (#10510)

[0.9.45.post1] - 2024-02-07#

新特性#

  • 将 Deeplake 向量数据库升级为使用 BasePydanticVectorStore (#10504)

Bug 修复/小改进#

  • 修复 Markdown 解析器处理不一致表格的问题 (#10488)
  • 修复 MetadataExtractionSEC.ipynb 中 pypdf 的 ImportError (#10491)

[0.9.45] - 2024-02-07#

新特性#

  • 重构:添加 AgentRunner.from_llm 方法 (#10452)
  • 支持非聊天 LLMs 的自定义提示格式 (#10466)
  • 将 cryptography 版本从 41.0.7 提高到 42.0.0 (#10467)
  • 为 Colbert Index 添加 persist 和 load 方法 (#10477)
  • 允许自定义 agent 接收用户输入 (#10450)

Bug 修复/小改进#

  • 从 arize-phoenix 全局回调处理器中移除 exporter (#10465)
  • 修复 Dashscope qwen LLM bug (#10471)
  • 修复:调用 AWS Bedrock 模型 (#10443)
  • 将 Azure AI Search (原 Azure Cognitive Search) 向量存储集成更新至最新的客户端 SDK 11.4.0 稳定版 + 更新 jupyter notebook 示例 (#10416)
  • 修复一些导入 (#10485)

[0.9.44] - 2024-02-05#

新特性#

  • Ollama 视觉 cookbook (#10438)
  • 支持 Gemini "transport" 配置 (#10457)
  • 添加 Upstash Vector (#10451)

[0.9.43] - 2024-02-03#

新特性#

  • 添加多模态 Ollama (#10434)

Bug 修复/小改进#

  • 更新 astradb 的基类 (#10435)

[0.9.42.post1] - 2024-02-02#

新特性#

  • 添加 Base nodes parser 的异步支持 (#10418)

[0.9.42] - 2024-02-02#

新特性#

  • 添加对 gpt-3.5-turbo-0125 的支持 (#10412)
  • 向 rag cli 添加 create-llama 支持 (#10405)

Bug 修复/小改进#

  • 修复 lance-db 向量存储中的小 bug (#10404)
  • 修复 Ollama 中的流式传输 bug (#10407)

[0.9.41] - 2024-02-01#

新特性#

  • Nomic Embedding (#10388)
  • Dashvector 支持稀疏向量 (#10386)
  • 使用 MarkDownParser 进行表格问答和基准测试 (#10382)
  • 简单网页读取器 (#10395)

Bug 修复/小改进#

  • 修复 KeywordExtractor 中的完整节点内容 (#10398)

[0.9.40] - 2024-01-30#

新特性#

  • 改进和修复 MarkdownElementNodeParser 的 bug (#10340)
  • 修复和改进 Perplexity 对新模型的支持 (#10319)
  • 确保 system_prompt 传递给 Perplexity LLM (#10326)
  • 扩展 BaseRetrievalEvaluator 以包含一个可选的 PostProcessor (#10321)

[0.9.39] - 2024-01-26#

新特性#

  • 支持新的 GPT Turbo 模型 (#10291)
  • 支持 Sentence Transformer Fine tuning 的多个文档 (#10297)

Bug 修复/小改进#

  • Marvin 导入修复 (#9864)

[0.9.38] - 2024-01-25#

新特性#

  • 支持新的 OpenAI v3 嵌入模型 (#10279)

Bug 修复/小改进#

  • 对 Qdrant 稀疏嵌入进行额外检查 (#10275)

[0.9.37] - 2024-01-24#

新特性#

  • 添加了一个 RAG CLI 工具 (#10193)
  • 添加了一个 textai 向量存储 (#10240)
  • 添加了一个基于 PostgreSQL 的文档存储和索引存储 (#10233)
  • 在 tool specs 中指定 tool spec (#10263)

Bug 修复/小改进#

  • 修复 Ollama 聊天中的序列化错误 (#10230)
  • 向 SentenceTransformerRerank 添加缺失字段 (#10225)
  • 修复标题提取 (#10209, #10226)
  • 小改进:使可链式输出解析器在库/文档中更易于访问 (#10262)
  • :bug: 摘要索引未携带 excluded metadata keys (#10259)

[0.9.36] - 2024-01-23#

新特性#

  • 添加了对 SageMakerEmbedding 的支持 (#10207)

Bug 修复/小改进#

  • 修复 OpenAI Assistant 上的重复 file_id (#10223)
  • 修复 programs 的循环依赖 (#10222)
  • 对来自同一父文档的节点组运行 TitleExtractor (#10209)
  • 改进 Vectara 自动检索 (#10195)

[0.9.35] - 2024-01-22#

新特性#

  • beautifulsoup4 依赖到新的可选 extra html (#10156)
  • 使 BaseNode.hash 成为一个 @property (#10163)
  • Neutrino (#10150)
  • 特性:JSONalyze 查询引擎 (#10067)
  • [wip] 添加自定义混合检索器 notebook (#10164)
  • 向 ChromaVectorStore 类添加 from_collection 方法 (#10167)
  • CLI 实验 v0: ask (#10168)
  • 使 react agent 提示更易编辑 (#10154)
  • 添加 agent 查询管道 (#10180)

Bug 修复/小改进#

  • 更新 supabase vecs 元数据过滤函数以支持多个字段 (#10133)
  • LanceDB 集成的 Bug 修复/代码改进 (#10144)
  • beautifulsoup4 可选依赖 (#10156)
  • 修复 Qdrant aquery 混合搜索 (#10159)
  • 使 hash 成为一个 @property (#10163)
  • 修复:poetry 安装 llama-index[postgres] 时的 bug (#10171)
  • [文档] 更新 jaguar 向量存储文档 (#10179)
  • 移除对未发布的 finish_message 的使用 (#10188)
  • Lantern 向量存储文档更新 (#10192)
  • 修复 multi_document_agents.ipynb 中的拼写错误 (#10196)

[0.9.34] - 2024-01-19#

新特性#

  • 添加 SageMakerEndpointLLM (#10140)
  • 添加了对 Qdrant 过滤器的支持 (#10136)

Bug 修复/小改进#

  • 更新 Bedrock utils 支持 Claude 2:1 (#10139)
  • Bug 修复:使用 multiprocessing 时的死锁 (#10125)

[0.9.33] - 2024-01-17#

新特性#

  • 添加 RankGPT 作为后处理器 (#10054)
  • 确保与新 Pinecone 客户端版本分支的向后兼容性 (#9995)
  • 递归检索器全搞定 (#10019)

Bug 修复/小改进#

  • Bug 修复:在包含逗号的表格上使用 markdown element parser 时的问题 (#9926)
  • 扩展自动检索 notebook (#10065)
  • 更新 llm_generators 中的属性名称 (#10070)
  • jaguar 向量存储在 add() 方法中向 add_kwargs 添加 text_tag (#10057)

[0.9.32] - 2024-01-16#

新特性#

  • 添加了查询时行检索 + 修复结构化数据查询管道的小改进 (#10061)
  • 带有 Context 的 ReActive Agents + 更新过期链接 (#10058)

[0.9.31] - 2024-01-15#

新特性#

  • 向查询管道添加选择器和路由器 (#9979)
  • 向 Qdrant 向量存储添加稀疏搜索支持 (#10041)
  • 添加 Tonic 评估器 (#10000)
  • 向 Firestore 文档存储添加异步支持 (#9983)
  • 实现 mongodb 文档存储的 put_all 方法 (#10014)

Bug 修复/小改进#

  • 根据 max_string_length 正确截断 SQL 结果 (#10015)
  • 修复 node.resolve_image() 处理 base64 字符串的问题 (#10026)
  • 修复 Cohere 系统提示角色 (#10020)
  • 移除 SentenceSplitter 中冗余的 token 计数操作 (#10053)

[0.9.30] - 2024-01-11#

新特性#

  • 实现使用嵌入进行语义分割的节点解析器 (#9988)
  • 添加 Anyscale Embedding 模型支持 (#9470)

Bug 修复/小改进#

  • 小改进:修复 pandas get prompt (#10001)
  • 修复:token 计数 bug (#9912)
  • 将 jinja2 版本从 3.1.2 提高到 3.1.3 (#9997)
  • 修复 Qdrant 混合搜索的边缘情况 (#9993)
  • Bug 修复:sphinx 生成错误 (#9944)
  • 修复:CodeSplitter 中 language 在赋值前使用的问题 (#9987)
  • 修复 "Use a Text Splitter…" 部分中 "text_parser" 名称不一致的问题 (#9980)
  • :bug: 修复批量大小 (#9982)
  • 向查询管道添加自动异步执行 (#9967)
  • :bug: 修复 init (#9977)
  • 使用 SimpleDirectoryReader 进行并行加载 (#9965)
  • 不要在 Milvus 中强制删除索引 (#9974)

[0.9.29] - 2024-01-10#

新特性#

  • 添加了对 together.ai 模型支持 (#9962)
  • 添加了对批量 Redis/Firestore kvstores 以及异步 Firestore kvstore 的支持 (#9827)
  • Parallelize IngestionPipeline.run() (#9920)
  • 添加新的查询管道组件:function, argpack, kwargpack (#9952)

Bug 修复/小改进#

  • 更新可选的 langchain 导入以避免警告 (#9964)
  • 如果嵌入空节点则抛出错误 (#9953)

[0.9.28] - 2024-01-09#

新特性#

  • 添加了对 Nvidia TenorRT LLM 的支持 (#9842)
  • 允许在 agent 构建期间设置 tool_choice (#9924)
  • 为 QueryPipeline 添加流式传输支持 (#9919)

Bug 修复/小改进#

  • 为 llama-index 读取器设置一致的文档 ID (#9923, #9916)
  • 移除 HuggingFaceEmbedding 中不必要的模型输入 (#9922)
  • 将 tool_choice 标志传播到下游 API (#9901)
  • 向 chat memory from_defaults() 添加 chat_store_key (#9928)

[0.9.27] - 2024-01-08#

新特性#

  • 添加查询管道 (#9908)
  • 特性:Azure 多模态 (修复: #9471) (#9843)
  • 添加 PostgreSQL Docker (#9906)
  • Vectara 自动检索器 (#9865)
  • Redis Chat Store 支持 (#9880)
  • 将更多类移至 core (#9871)

Bug 修复/小改进/更小特性#

  • 将 tool_choice 标志传播到下游 API (#9901)
  • 从 Faiss 查询中过滤掉负索引 (#9907)
  • 为 Qdrant payloads 添加 NE 过滤器 (#9897)
  • 修复 MyScale 查询结果中错误的 ID 分配 (#9900)
  • Qdrant 文本匹配过滤器 (#9895)
  • 混合搜索的 Fusion top k (#9894)
  • 修复 (#9867) sync_to_async 以避免在异步调用期间阻塞 (#9869)
  • 传递给 compute_scores 的单个节点返回浮点值 (#9866)
  • 移除额外的 linting 步骤 (#9878)
  • 添加 Vectara 链接 (#9886)

[0.9.26] - 2024-01-05#

新特性#

  • 为专用的聊天内存存储添加了 BaseChatStore 和 SimpleChatStore 抽象 (#9863)
  • 启用将自定义 tree_sitter 解析器传递给 CodeSplitter (#9845)
  • 创建了 BaseAutoRetriever 基类,允许其他检索器扩展到自动模式 (#9846)
  • 添加了对 Nvidia Triton LLM 的支持 (#9488)
  • 添加 DeepEval 一键式可观测性 (#9801)

Bug 修复/小改进#

  • 更新了 guidance 集成以与最新版本配合使用 (#9830)
  • 使 doctores/ingestion pipeline 的文本存储可选 (#9847)
  • 为文档添加缺失的 sphinx-automodapi 依赖 (#9852)
  • 在 Weaviate 查询结果中返回实际节点 ID (#9854)
  • 向 LangChainLLM 添加提示格式 (#9844)

[0.9.25] - 2024-01-03#

新特性#

  • 为数据集生成添加并发限制 (#9779)
  • 新的 DeepEval 一键式可观测性处理器 (#9801)
  • 添加 jaguar 向量存储 (#9754)
  • 添加 beta 多模态 ReAct agent (#9807)

Bug 修复/小改进#

  • 将 OpenAI 嵌入的默认批量大小更改为 100 (#9805)
  • 正确使用批量大小进行 Qdrant upserts (#9814)
  • _verify_source_safety 使用 AST 而非正则表达式进行适当的安全检查 (#9789)
  • 在元素节点解析器中使用提供的 LLM (#9776)
  • 更新了传统向量数据库加载函数,使其更健壮 (#9773)
  • 在 AzureOpenAI 中使用提供的 http 客户端 (#9772)

[0.9.24] - 2023-12-30#

新特性#

  • 为 BEIR 评估添加 reranker (#9743)
  • 添加 Pathway 集成。(#9719)
  • 自定义 agent 实现 + notebook (#9746)

Bug 修复/小改进#

  • 修复 vllm 的束搜索:添加缺失参数 (#9741)
  • 修复混合搜索的 alpha (#9742)
  • 修复 token 计数器 (#9744)
  • BM25 tokenizer 小写 (#9745)

[0.9.23] - 2023-12-28#

Bug 修复/小改进#

  • 文档:修复 qdrant_hybrid.ipynb 中的拼写错误 (#9729)
  • 使 LLM completion program 更通用 (#9731)
  • 重构空集合的 MM 向量存储和索引 (#9717)
  • 添加 IF 语句以使用 "Select" 检查 Schema (#9712)
  • 允许在 download_module 和 download_llama_pack 中跳过模块加载 (#9734)

[0.9.22] - 2023-12-26#

新特性#

  • 向 SimpleDirectoryReader 添加 .iter_data() 方法 (#9658)
  • 向 Ollama LLM 添加异步支持 (#9689)
  • 扩展 Pinecone 过滤器支持,增加 in 和 not in (#9683)

Bug 修复/小改进#

  • 提高 BM25Retriever 性能 (#9675)
  • 改进 Qdrant 混合搜索错误处理 (#9707)
  • 修复 ChromaVectorStore 中的 None 处理 (#9697)
  • 修复 PostgreSQL schema 不存在时的创建问题 (#9712)

[0.9.21] - 2023-12-23#

新特性#

  • 添加 Zilliz Cloud 作为托管索引 (#9605)

Bug 修复/小改进#

  • Bedrock 客户端和 LLM 修复 (#9671, #9646)

[0.9.20] - 2023-12-21#

新特性#

  • 添加 insert_batch_size 以限制创建索引时内存中持有的嵌入数量,默认为 2048 (#9630)
  • 改进自动检索 (#9647)
  • 可配置的节点 ID 生成函数 (#9574)
  • 引入 action input parser (#9575)
  • Qdrant 稀疏向量支持 (#9644)
  • 在摄取管道中引入 upserts 和 delete (#9643)
  • 添加 Zilliz Cloud Pipeline 作为托管索引 (#9605)
  • 通过 VertexAI 添加对 Google Gemini 模型支持 (#9624)
  • 支持在自动检索器上允许附加元数据过滤器 (#9662)

Bug 修复/小改进#

  • 修复 LM Format Enforcer notebooks 中的 pip install 命令 (#9648)
  • 修复更多链接和文档 (#9633)
  • 一些 Bedrock 小改进和修复 (#9646)

[0.9.19] - 2023-12-20#

新特性#

  • 新的 llama 数据集 LabelledEvaluatorDataset & LabelledPairwiseEvaluatorDataset (#9531)

[0.9.18] - 2023-12-20#

新特性#

  • 多文档自动检索指南 (#9631)

Bug 修复/小改进#

  • 修复(vllm):使 Vllm 的 'complete' 方法与其他 LLM 类行为一致 (#9634)
  • 修复文档链接和其他文档问题 (#9632)

[0.9.17] - 2023-12-19#

新特性#

  • [示例] 添加用户反馈 (#9601)
  • 特性:Cohere ReRank 检索评估的相关性指标 (#9495)

Bug 修复/小改进#

  • 修复 Gemini 聊天模式 (#9599)
  • 修复 types-protobuf 作为主要依赖的问题 (#9595)
  • 向 TextEmbeddingInference 类添加一个可选的 auth token (#9606)
  • 修复:out of index 获取最新工具调用 (#9608)
  • 修复(azure_openai.py):向子类覆盖添加缺失的 return (#9598)
  • 修复 Ollama API 调用中 'formatted' 和 'format' 参数混淆的问题 (#9594)

[0.9.16] - 2023-12-18#

新特性#

  • Agent 重构:逐步执行 (#9584)
  • 添加 OpenRouter,带有 Mixtral demo (#9464)
  • 向 Neo4j 向量存储添加混合搜索 (#9530)
  • 为 Google Semantic Retriever 添加 auth service accounts 支持 (#9545)

Bug 修复/小改进#

  • 修复 LLM.system_prompt 缺失 default=None 的问题 (#9504)
  • 修复 #9580:正确合并元数据 (#9582)
  • 集成:Gradient[嵌入,LLM] - sdk 升级 (#9528)
  • 将 mixtral 8x7b 模型添加到 Anyscale 可用模型 (#9573)
  • Gemini 模型检查 (#9563)
  • 使用最新更改更新 OpenAI 微调 (#9564)
  • 修复/重新引入 WHERE 过滤器到 PgVectorStore 的稀疏查询 (#9529)
  • 将 Ollama API 更新到 ollama v0.1.16 (#9558)
  • Ollama:剥离无效的 formatted 选项 (#9555)
  • 在 optimum push #9541 中添加设备 (#9554)
  • Gemini Embedding 的标题与内容差异 (#9547)
  • 修复 Pydantic 字段为 float (#9542)

[0.9.15] - 2023-12-13#

新特性#

  • 添加了对 Google Gemini 文本+视觉模型的全面支持 (#9452)
  • 添加了新的 Google Semantic Retriever (#9440)
  • 向 OpenAI Assistants 添加了 from_existing() 方法 + 异步支持 (#9367)

Bug 修复/小改进#

  • 修复 HuggingFace LLM 系统提示和消息到提示的转换 (#9463)
  • 修复 Ollama additional kwargs 使用问题 (#9455)

[0.9.14] - 2023-12-11#

新特性#

  • 添加 MistralAI LLM (#9444)
  • 添加 MistralAI 嵌入 (#9441)
  • 添加 Ollama Embedding 类 (#9341)
  • 添加 FlagEmbeddingReranker 用于重排序 (#9285)
  • 特性:PgVectorStore 支持高级元数据过滤 (#9377)
  • 向 SQL 查询引擎添加 sql_only 参数,以避免执行 SQL (#9422)

Bug 修复/小改进#

  • 特性/PgVector 支持自定义 hnsw.ef_search 和 ivfflat.probes (#9420)
  • 修复 F1 分数定义,更新版权年份 (#9424)
  • 将 Replicate 多模态模型的多个图像输入从错误改为警告 (#9360)
  • 移除了 GPT 许可的 aiostream 依赖 (#9403)
  • 修复使用 Cohere 模型进行 BedrockEmbedding 的结果问题 (#9396)
  • 仅在 react agent 中捕获有效的工具名称 (#9412)
  • 修复 Azure Cosmos 中 top_k 被乘以 10 的问题 (#9438)
  • 修复 OpenSearch 的混合搜索问题 (#9430)

重大变更#

  • 更新了基础 LLM 接口以匹配 LLMPredictor (#9388)
  • 弃用 LLMPredictor (#9388)

[0.9.13] - 2023-12-06#

新特性#

  • 为 LabelledRagDataset 添加批量预测支持 (#9332)

Bug 修复/小改进#

  • 修复 Faiss 向量存储的保存和加载问题 (#9330)

[0.9.12] - 2023-12-05#

新特性#

  • 向 OpenAI/Azure 添加了一个选项 reuse_client,以帮助处理异步超时。设置为 False 可看到改进 (#9301)
  • 添加了对 vLLM LLM 的支持 (#9257)
  • 添加对 Python 3.12 的支持 (#9304)
  • 支持 claude-2.1 模型名称 (#9275)

Bug 修复/小改进#

  • 修复 Bedrock Cohere 嵌入的嵌入格式 (#9265)
  • 在 Weaviate 向量存储中使用 delete_kwargs 进行过滤 (#9300)
  • 修复 Qdrant 客户端自动构建问题 (#9267)

[0.9.11] - 2023-12-03#

新特性#

  • 使 LabelledRagDataset 中的 reference_contexts 可选 (#9266)
  • 重组 download module (#9253)
  • 向摄取管道添加文档管理 (#9135)
  • 添加 LabelledRagDataset 的文档 (#9228)
  • 添加 LabelledRagDataset 的提交模板 notebook 和其他文档更新 (#9273)

Bug 修复/小改进#

  • 将 InstructorEmbedding 的 numpy 转换为 list (#9255)

[0.9.10] - 2023-11-30#

新特性#

  • 向量存储的高级元数据过滤器 (#9216)
  • Amazon Bedrock 嵌入新模型 (#9222)
  • 添加 PromptLayer 回调集成 (#9190)
  • 重用 OpenAIAssistant 的文件 ID (#9125)

重大变更/弃用#

  • 弃用 ExactMatchFilter (#9216)

[0.9.9] - 2023-11-29#

新特性#

  • 为 LlamaDataset 添加新抽象 (#9165)
  • 为 AstraDBVectorStore 添加元数据过滤和 MMR 模式支持 (#9193)
  • 允许最新的 scikit-learn 版本 (#9213)

重大变更/弃用#

  • 添加 LocalAI demo 并开始弃用周期 (#9151)
  • 弃用 evaluation module 的 QueryResponseDataset 和 DatasetGenerator (#9165)

Bug 修复/小改进#

  • 修复 download_utils.py 指向错误 repo 的 bug (#9215)
  • 在 AzureOpenAILLM 中使用 azure_deployment kwarg (#9174)
  • 修复 AstraDBVectorStore 集成的相似度分数返回问题 (#9193)

[0.9.8] - 2023-11-26#

新特性#

  • 向支持的 ObjectIndex 添加 persist 和 persist_from_dir 方法 (#9064)
  • 添加异步元数据提取 + 管道支持 (#9121)
  • 重新添加对节点中开始/结束字符索引的支持 (#9143)

Bug 修复/小改进#

  • 修复 global service context 中某些 kwargs 未正确设置的问题 (#9137)
  • 修复 system/prefix 消息过大时 memory.get() 的小问题 (#9149)
  • global service context 的小修复 (#9137)

[0.9.7] - 2023-11-24#

新特性#

  • 添加对 PGVectoRsStore 的支持 (#9087)
  • 出于安全考虑强制要求 requests>=2.31,同时解除 urllib3 的限制 (#9108)

Bug 修复/小改进#

  • 增加了 context chat engine 的默认内存 token 限制 (#9123)
  • 向 CondensePlusContextChatEngine 添加了一个 system prompt,它将被添加到 context_prompt 的开头 (#9123)
  • 修复 CondensePlusContextChatEngine 未正确使用聊天历史记录的 bug (#9129)

[0.9.6] - 2023-11-22#

新特性#

  • 向 OpenAI LLMs 添加 default_headers 参数 (#9090)
  • 添加了对 download_llama_pack() 和 LlamaPack 集成的支持
  • 添加了对 llamaindex-cli 命令行工具的支持

Bug 修复/小改进#

  • 将 huggingface 嵌入的 normalize 存储为 bool (#9089)

[0.9.5] - 2023-11-21#

Bug 修复/小改进#

  • 修复 AzureOpenAI 推断流块是否为工具调用的逻辑 bug (#9018)

新特性#

  • FastEmbed 嵌入提供者 (#9043)
  • 对 OpenAILike 进行更精确的测试 (#9026)
  • 向每个检索器添加回调管理器 (#8871)
  • 使用 OpenAILike 绕过 max_tokens 推断的能力 (#9032)

Bug 修复/小改进#

  • 修复在估计块大小时格式化聊天提示模板的 bug (#9025)
  • 沙盒化 Pandas 执行,修复 CVE-2023-39662 (#8890)
  • 恢复 Python 3.8 的 mypy (#9031)
  • 放宽 dataclasses-json 版本范围,并移除 pandas 中不必要的 jinja2 extra (#9042)

[0.9.4] - 2023-11-19#

新特性#

  • 添加 CondensePlusContextChatEngine (#8949)

更小特性/Bug 修复/小改进#

  • 修复 OpenAIAgent 将错误插入聊天历史记录的 bug (#9000)
  • 修复 LiteLLM 和新 OpenAI 客户端的各种 bug (#9003)
  • 向 perplexity LLM 添加 context window 属性 (#9012)
  • 重新向 service context 添加 node_parser 属性 (#9013)
  • 重构 MM 检索器类 (#8998)
  • 修复 SupabaseVectorIndexDemo 上的 TextNode 实例化问题 (#8994)

[0.9.3] - 2023-11-17#

新特性#

  • 添加 perplexity LLM 集成 (#8734)

Bug 修复/小改进#

  • 修复新 OpenAI 客户端的 token 计数问题 (#8981)
  • 修复 PostgreSQL 向量数据库中的小 Pydantic bug (#8962)
  • 修复 HierarchicalNodeParser 中 chunk_overlap 和 doc_id 的 bug (#8983)

[0.9.2] - 2023-11-16#

新特性#

  • 添加了新的 Multi-Modal Rag Evaluation notebook 指南 (#8945)
  • 添加 MultiModalRelevancyEvaluator 和 MultiModalFaithfulnessEvaluator (#8945)

[0.9.1] - 2023-11-15#

新特性#

  • 添加 Cohere Reranker 微调 (#8859)
  • AzureOpenAI LLM 支持自定义 httpx 客户端 (#8920)

Bug 修复/小改进#

  • 修复 set_global_service_context 未传播设置的问题 (#8940)
  • 修复使用 Google Palm 嵌入构建索引的问题 (#8936)
  • 修复解析没有文本的 ImageDocuments/Nodes 的小问题 (#8938)
  • 修复 Astra DB 大数据插入的问题 (#8937)
  • 优化 agent 的 QueryEngineTool (#8933)

[0.9.0] - 2023-11-15#

新特性/重大变更/弃用#

  • 用于摄取和转换数据的新 IngestionPipeline 概念
  • 数据摄取和转换现在自动缓存
  • 更新了节点解析/文本分割/元数据提取模块的接口
  • 默认分词器的更改,以及自定义分词器
  • 使用 PyPi 进行打包/安装更改(减少臃肿,新的安装选项)
  • 更可预测和一致的导入路径
  • 此外,在 beta 版中:用于处理文本和图像的多模态 RAG 模块!
  • 更多详情请访问:https://medium.com/@llama_index/719f03282945

[0.8.69.post1] - 2023-11-13#

Bug 修复/小改进#

  • 将 Weaviate 最大删除大小增加到最多 10,000 (#8887)
  • 最后的 Pickling 残留修复 (#8902)

[0.8.69] - 2023-11-13#

Bug 修复/小改进#

  • 修复加载 Pickled 对象时的 bug (#8880)
  • 修复 download_loader 中 custom_path 与 custom_dir 的问题 (#8865)

[0.8.68] - 2023-11-11#

新特性#

  • OpenAI Assistant Agent + 高级检索 cookbook (#8863)
  • 添加检索 API 基准测试 (#8850)
  • 添加 JinaEmbedding 类 (#8704)

Bug 修复/小改进#

  • 改进 OpenAI 的默认超时/重试 (#8819)
  • 重新添加 OpenAI 的密钥验证 (#8819)
  • 禁用自动 LLM/嵌入模型下载,给出信息性错误 (#8819)
  • 修复 OpenAI Assistant 工具创建 + 检索 notebook (#8862)
  • 快速修复 Replicate 多模态示例 (#8861)
  • 修复:路径被视为隐藏 (#8860)
  • 修复 Replicate 多模态 LLM + notebook (#8854)
  • 特性/引用元数据 (#8722)
  • 修复 SimpleMultiModalQueryEngine 的 ImageNode 类型从 NodeWithScore 转换的问题 (#8844)

[0.8.67] - 2023-11-10#

新特性#

  • 高级多模态检索示例和文档 (#8822, #8823)

错误修复 / 小改进#

  • 修复 CitationQueryEngine 的检索器节点后处理器 (#8818)
  • 修复大多数场景下 cannot pickle 'builtins.CoreBPE' object 的错误 (#8835)

[0.8.66] - 2023-11-09#

新特性#

  • OpenAIPydanticProgram 中支持使用新 OpenAI 客户端并行调用函数 (#8793)

错误修复 / 小改进#

  • 修复使用新 OpenAI 客户端的 pydantic 程序中的错误 (#8793)
  • 修复无法列出 fsspec 对象的问题 (#8795)

[0.8.65] - 2023-11-08#

新特性#

  • OpenAIAgent 并行函数调用 (#8738)

新特性#

  • 正确支持 Hugging Face 推荐模型 (#8784)

错误修复 / 小改进#

  • 修复 embeddings.__all__ 缺失导入的问题 (#8779)

重大变更 / 弃用#

  • OpenAI(LLM) 中,使用 tool_choice 替换 function_call,使用 tool 替换 functions (#8738)
  • 弃用 to_openai_function,改用 to_openai_tool (#8738)

[0.8.64] - 2023-11-06#

新特性#

  • OpenAIAgent 并行函数调用 (#8738)
  • 添加 AI 助手代理 (#8735)
  • OpenAI GPT4v 抽象 (#8719)
  • 添加对 Lantern VectorStore 的支持 (#8714)

错误修复 / 小改进#

  • 修复 elastic search 向量存储返回零节点的问题 (#8746)
  • SimpleDirectoryReader 循环添加 try/except,避免处理单个文档时崩溃 (#8744)
  • 修复异步嵌入中的 deployment_name 问题 (#8748)

[0.8.63] - 2023-11-05#

新特性#

  • 添加了对最新 openai 客户端包的原生同步和异步客户端支持 (#8712)
  • 添加了对 AzureOpenAIEmbedding 的支持 (#8712)

错误修复 / 小改进#

  • 修复使用 download_loader 时关于 "no host supplied" 的错误 (#8723)

重大变更#

  • OpenAIEmbedding 不再支持 azure,已移至 AzureOpenAIEmbedding 类 (#8712)

[0.8.62.post1] - 2023-11-05#

重大变更#

  • 添加新的 devday 模型 (#8713)
  • SimpleMongoReadermax_docs 参数从构造函数移至 lazy_load_data() 方法 (#8686)

[0.8.61] - 2023-11-05#

新特性#

  • [实验性] 超参数调优器 (#8687)

错误修复 / 小改进#

  • 修复 CohereAIModelName 类中的拼写错误:cohere light 模型缺少 v3 (#8684)
  • 更新 deeplake.py (#8683)

[0.8.60] - 2023-11-04#

新特性#

  • prompt 优化指南 (#8659)
  • VoyageEmbedding (#8634)
  • YoutubeTranscriptReader 添加多语言支持 (#8673)
  • 情感 prompt 指南 (#8674)

错误修复 / 小改进#

  • 将 mistral 7b instruct v0.1 添加到可用的 anyscale 模型中 (#8652)
  • 使 pgvector 的设置(扩展、模式和表创建)成为可选 (#8656)
  • 允许为 Pinecone 向量存储初始化 stores_text 变量 (#8633)
  • 修复:azure ad 支持 (#8667)
  • 修复多线程环境中的 nltk 错误 (#8668)
  • 修复 cohereai notebook 中的 google colab 链接 (#8677)
  • 将 max_tokens 传递给 Cohere llm (#8672)

[0.8.59] - 2023-11-02#

  • Deepmemory 支持 (#8625)
  • 添加 CohereAI 嵌入 (#8650)
  • 添加 Azure AD (Microsoft Entra ID) 支持 (#8667)

[0.8.58] - 2023-11-02#

新特性#

  • 添加 lm-format-enforcer 集成以支持结构化输出 (#8601)
  • Google Vertex 支持 (#8626)

[0.8.57] - 2023-10-31#

新特性#

  • 添加 VoyageAIEmbedding 集成 (#8634)
  • 添加微调评估器 notebook (#8596)
  • 添加 SingleStoreDB 集成 (#7991)
  • 添加对 ChromaDB PersistentClient 的支持 (#8582)
  • 添加 DataStax Astra DB 支持 (#8609)

错误修复 / 小改进#

  • 更新 Weaviate 中的 dataType (#8608)
  • 在采用混合 retriever_mode 的知识图谱索引中,
  • 当 'No Relationship found' 时返回通过关键词搜索找到的节点
  • 修复 chat engine 中超出上下文长度的错误 (#8530)
  • 从知识图谱中检索所有三元组的实际内容 (#8579)
  • 在采用混合 retriever_mode 的 KnowledgeGraphIndex 中,当嵌入未能找到关系时,返回通过关键词找到的节点 (#8575)
  • 优化 retriever tool 的内容并进行次要错误修复 (#8588)

[0.8.56] - 2023-10-30#

新特性#

  • 添加 Amazon BedrockEmbedding (#8550)
  • HuggingFaceEmbedding 迁移,以便将 Pooling 枚举作为池化中心 (#8467)
  • 添加 IBM WatsonX LLM 支持 (#8587)

错误修复 / 小改进#

  • [Bug] 修复 Clarifai 类 (#8529)
  • 修复 bedrock llm 的重试问题 (#8528)
  • 修复:VectorStore 的 QueryResult 始终将保存的 Node 作为 TextNode 返回的问题 (#8521)
  • 为 SimpleDirectoryReader 添加默认 file_metadata,以获取许多后处理器使用的基本元数据 (#8486)
  • 处理 chromadb 中元数据包含 None 值的情况 (#8584)

[0.8.55] - 2023-10-29#

新特性#

  • 允许 prompts 通过 function_mappings 接受函数 (#8548)
  • 添加高级 prompt + "RAG 的 prompt 工程" notebook (#8555)
  • 利用 Replicate API 服务 LLaVa 模型 (#8539)

错误修复 / 小改进#

  • 更新 pull request 模板,包含 google colab 支持 (#8525)

[0.8.54] - 2023-10-28#

新特性#

  • 展示如何在结构化输出上微调 llama2 的 notebook (#8540)
  • 添加了 GradientAIFineTuningHandler
  • 将 pydantic_program_mode 添加到 ServiceContext
  • 使用 LlamaIndex 初始化多模态检索 (#8507)

错误修复 / 小改进#

  • ChatEngine 使用模式 .md 文档添加缺失的导入 (#8518)
  • :bug: 修复了异步添加 (#8531)
  • 修复:在 usage_pa… 中添加所需的 CondenseQuestionChatEngine 导入 (#8518)
  • 为 LongLLMLingua.ipynb 添加导入 LongLLMLinguaPostprocessor (#8519)

[0.8.53] - 2023-10-27#

新特性#

  • 文档重构 (#8500) 文档组织结构的全面修订。主要变更
  • 添加了全新的“理解”部分
  • 添加了全新的“优化”部分
  • 全面修订了“入门”内容
  • 将模块指南分类并移至单独部分

[0.8.52] - 2023-10-26#

新特性#

  • 添加 longllmlingua (#8485)
  • 为 notebook 添加 google colab 支持 (#7560)

错误修复 / 小改进#

  • 调整 Cassandra VectorStore 构造函数通过 cassio.init 进行数据库连接 (#8255)
  • 允许在托管索引中配置 service context 和 storage context (#8487)

[0.8.51.post1] - 2023-10-25#

新特性#

  • 为 Tesla 10k RAG 添加 Llava 多模态问答示例 (#8271)
  • 修复 react chat agent 上的流式传输未按预期工作的问题 (#8459)

错误修复 / 小改进#

  • 补丁:为 router query engine 的响应元数据添加选定结果,修复错误 (#8483)
  • 添加 Jina AI 嵌入 notebook + huggingface 嵌入修复 (#8478)
  • 为 replicate 添加 is_chat_model (#8469)
  • toml-sort 重新添加回 pre-commit (#8267)
  • 为本地 test_s3_kvstore 添加 LocationConstraint (#8263)

[0.8.50] - 2023-10-24#

新特性#

  • 在不同模块中暴露 prompts(query engine、synthesizer 等)(#8275)

[0.8.49] - 2023-10-23#

新特性#

  • 新的 LLM 集成
  • 通过 huggingface_hub[inference] 支持 Hugging Face Inference API 的 conversational, text_generation, 和 feature_extraction 端点 (#8098)
  • 添加 Amazon Bedrock LLMs (#8223)
  • 添加 AI21 Labs LLMs (#8233)
  • 添加 OpenAILike LLM 类,用于 OpenAI 兼容的 api 服务器 (#7973)
  • 新的 / 更新的向量存储集成
  • 添加 DashVector (#7772)
  • 添加 Tencent VectorDB (#8173)
  • 为 PGVectorStore 添加自定义 Postgres schema 选项,而非仅允许 public schema (#8080)
  • 添加 Gradient 微调引擎 (#8208)
  • 文档(FAQ):常见问题 (#8249)

错误修复 / 小改进#

  • 修复 ReActAgent.stream_chat 的不一致问题 (#8147)
  • 弃用 GuardrailsOutputParser 的部分函数 (#8016)
  • 简化依赖项 (#8236)
  • LiteLLM 的错误修复 (#7885)
  • 更新 Predibase LLM (#8211)

[0.8.48] - 2023-10-20#

新特性#

  • 为 MyScale 向量存储添加 DELETE 功能 (#8159)
  • 添加 SQL Retriever (#8197)
  • 添加 semantic kernel 文档格式 (#8226)
  • 改进 MyScale 混合搜索并为 MyScale 向量存储添加 DELETE (#8159)

错误修复 / 细节改进#

  • 修复 ReActAgent.from_tools() 中的额外 kwargs (#8206)
  • 修复提示模板中丢失的空格 (#8190)
  • 移除异常时自动下载 llama2-13B 的功能 (#8225)

[0.8.47] - 2023-10-19#

新特性#

  • 为 text-to-SQL 添加响应合成 (#8196)
  • 添加对 LLMRailsEmbedding 的支持 (#8169)
  • 使用 PyTorch 推断 MPS 设备 (#8195)
  • 整合查询/文本预处理 (#8189)

[0.8.46] - 2023-10-18#

新特性#

  • 添加微调路由器支持 + 嵌入选择器 (#8174)
  • 添加更多文档转换器 (#8156)

错误修复 / 细节改进#

  • 为 huggingface 嵌入添加归一化 (#8145)
  • 改进 MyScale 混合搜索 (#8159)
  • 修复 FORMAT_STR 在提示中重复出现的问题 (#8171)
  • 添加:对 PandasQueryEngine 支持 output_kwargs={'max_colwidth': xx} (#8110)
  • 修复 cohere llm 中一个参数描述的微小错误 (#8163)
  • 修复 Firestore 客户端信息 (#8166)

[0.8.45] - 2023-10-13#

新特性#

  • 添加对交叉编码器微调的支持 (#7705)
  • 添加 QueryFusionRetriever 用于合并多个检索器 + 查询增强 (#8100)
  • 添加 nb-cleanpre-commit 以最小化 PR diff (#8108)
  • 支持 TextEmbeddingInference 嵌入 (#8122)

错误修复 / 细节改进#

  • 改进 BM25Retriever 接口以接受 BaseNode 对象 (#8096)
  • 修复 BM25Retriever 分词器未能按预期工作的 bug (#8096)
  • 使 mypy 在 Python 3.8 中通过 (#8107)
  • ReActAgent 添加缺失的 super().__init__ 调用 (#8125)

[0.8.44] - 2023-10-12#

新特性#

  • 添加 pgvector sql 查询引擎 (#8087)
  • 添加 HoneyHive 一键可观测性 (#7944)
  • 添加对 SQLAlchemy V1 和 V2 的支持 (#8060)

[0.8.43.post1] - 2023-10-11#

新特性#

  • codespell 移至 pre-commit (#8040)
  • 添加 prettier 用于除 .py 以外扩展名的自动格式化 (#8072)

错误修复 / 细节改进#

  • 修复 HuggingFaceLLM 中遗漏的 f-str (#8075)
  • 放宽 numpy/panadas 依赖限制

[0.8.43] - 2023-10-10#

新特性#

  • 添加对 GradientEmbedding 嵌入模型的支持 (#8050)

错误修复 / 细节改进#

  • HuggingFaceLLM 添加 messages_to_prompt kwarg (#8054)
  • 改进开源模型的选择和 sql 解析 (#8054)
  • 修复代理为工具生成过多 kwargs 的 bug (#8054)
  • 改进选择 + 问题生成的提示和调试功能 (#8056)

[0.8.42] - 2023-10-10#

新特性#

  • LocalAI 更直观的模块级变量名 (#8028)
  • 启用 codespell 用于 markdown 文档 (#7972)
  • 添加非结构化表格元素节点解析器 (#8036)
  • 添加:Qdrant 向量存储的异步 upserting (#7968)
  • 添加 cohere llm (#8023)

错误修复 / 细节改进#

  • 解析 react 代理答案中的多行输出 (#8029)
  • 为关键字 as_retriever 调用添加正确命名的 kwargs (#8011)
  • 更新 RAGAS LlamaIndex 集成参考 (#8035)
  • Vectara bug 修复 (#8032)
  • 修复:ChromaVectorStore 可能会尝试添加超过 chromadb 批次限制的项目 (#8019)
  • 修复 Mbox reader 中的 get_content 方法 (#8012)
  • 在 WeaviateVectorStore 中应用 kwarg 过滤器 (#8017)
  • 避免 ZeroDivisionError (#8027)
  • LocalAI 直观的模块级变量名 (#8028)
  • zep/fix: imports & typing (#8030)
  • 重构:使用 str.join (#8020)
  • 为节点解析使用适当的 metadata str (#7987)

[0.8.41] - 2023-10-07#

新特性#

  • You.com 检索器 (#8024)
  • 使用 metadata_names 参数从 mongodb 中拉取字段到元数据 (#8001)
  • 简化 LocalAI.__init__ 并保留相同行为 (#7982)

错误修复 / 细节改进#

  • 使用最长的元数据字符串进行元数据感知文本分割 (#7987)
  • 处理 mongodb reader 中的字符串列表 (#8002)
  • 移除 OpenAI.class_type,因为它已是无效代码 (#7983)
  • 修复 HuggingFaceLLM.device_map 类型提示 (#7989)

[0.8.40] - 2023-10-05#

新特性#

  • 添加对 Clarifai LLM 的支持 (#7967)
  • 添加对函数微调的支持 (#7971)

破坏性变更#

  • 更新文档摘要索引 (#7815)
  • 将默认检索模式更改为 embedding
  • 在索引时默认将摘要嵌入到向量存储中(而不是动态计算嵌入)
  • 支持在 llm retriever 中配置 top k

[0.8.39] - 2023-10-03#

新特性#

  • 添加对带有查询引擎的 pydantic 对象输出的支持 (#7893)
  • 添加 ClarifaiEmbedding 类以支持嵌入 (#7940)
  • Markdown 节点解析器、平面文件阅读器和简单文件节点解析器 (#7863)
  • 添加对 mongdb atlas $vectorSearch 的支持 (#7866)

错误修复 / 细节改进#

  • 添加对在 discord reader 中使用消息元数据的支持 (#7906)
  • 修复 LocalAI 无需 max_tokens 即可进行聊天的问题 (#7942)
  • 添加 codespell 用于自动化检查 (#7941)
  • ruff 现代化和自动修复 (#7889)
  • 实现自己的 SQLDatabase 类 (#7929)
  • 更新 LlamaCPP context_params 属性 (#7945)
  • 修复重复嵌入问题 (#7949)
  • 添加 codespell 工具以强制执行良好的拼写 (#7941)
  • 支持 venv 下本地使用 mypy (#7952)
  • Vectara - 微小更新 (#7954)
  • 在 CI 中避免 pydantic 重装 (#7956)
  • 将 tree_sitter_languages 移入 data_requirements.txt (#7955)
  • PGVectorStore 添加 cache_okay 参数以帮助抑制 TSVector 警告 (#7950)

[0.8.38] - 2023-10-02#

新特性#

  • 更新 KeywordNodePostprocessor 以使用 spacy 支持更多语言 (#7894)
  • LocalAI 支持全局或按查询区分 /chat/completions/completions (#7921)
  • 添加关于使用 REBEL + Wikipedia 过滤构建知识图谱的 notebook (#7919)
  • 添加对 ElasticsearchEmbedding 的支持 (#7914)

[0.8.37] - 2023-09-30#

新特性#

  • 支持 LocalAI LLM (#7913)
  • 添加验证以防止块大小配置错误 (#7917)

错误修复 / 细节改进#

  • 简化 NL SQL 响应到 SQL 解析,并扩展 NL SQL 提示 (#7868)
  • 提高 vectordb 集成的向量存储检索速度 (#7876)
  • 添加替换 {{ 和 }} 的功能,并修复 JSON 解析递归问题 (#7888)
  • 优化 JSON 解码错误提示 (#7891)
  • 优化 LLM 未提供 SQL 时产生的 SQL 错误提示 (#7900)
  • 优化 HuggingFaceLLMImportError 提示 (#7904)
  • eval fixes: 修复数据集响应生成,为评估器添加分数 (#7915)

[0.8.36] - 2023-09-27#

新特性#

  • 添加“从头构建 RAG notebook” - OSS/本地 (#7864)

错误修复 / 细节改进#

  • 修复 elasticsearch 混合评分问题 (#7852)
  • get_color_mappingprint_text 的 Langchain 依赖替换为内部实现 (#7845)
  • 修复 azure 异步流式传输问题 (#7856)
  • 避免 sub question generator 中的 NotImplementedError() (#7855)
  • 修复 predibase 初始化问题 (#7859)
  • 提高 langchain 最低版本并更改 langchain 的提示导入方式 (#7862)

[0.8.35] - 2023-09-27#

错误修复 / 细节改进#

  • 修复 recursive retriever 中丢弃 textnode 的问题 (#7840)
  • 当 callback_manager 为 None 时,在代理与其 llm 之间共享 callback_manager (#7844)
  • 修复 pandas query engine (#7847)

[0.8.34] - 2023-09-26#

新特性#

  • 添加 Konko LLM 支持 (#7775)
  • 添加上下文前/后句子 (#7821)
  • 通过 OpenAI 库实现 EverlyAI 与 LlamaIndex 的集成 (#7820)
  • 将 Arize Phoenix tracer 添加到全局 handlers (#7835)

错误修复 / 细节改进#

  • 对 ElasticSearch 向量存储返回的分数进行归一化 (#7792)
  • 修复 refresh_ref_docs() 中操作顺序的 bug (#7664)
  • 延迟 PGVectorStore 的 postgresql 连接直到实际需要时 (#7793)
  • 修复 SimpleVectorStore 删除方法中与元数据过滤器相关的 KeyError (#7829)
  • 修复 SimpleVectorStore 删除方法中与元数据过滤器相关的 KeyError (#7831)
  • 解决 PyYAML 导入错误 (#7784)
  • ElasticsearchStore: 更新 User-Agent + 添加示例 docker compose (#7832)
  • StorageContext.persist 支持 Path (#7783)
  • 更新 ollama.py (#7839)
  • 修复 self._session_pool 的 bug (#7834)

[0.8.33] - 2023-09-25#

新特性#

  • 添加 pairwise evaluator + benchmark auto-merging retriever (#7810)

错误修复 / 细节改进#

  • embedding 类中的微小清理 (#7813)
  • OpenAIEmbedding 的杂项更新 (#7811)

[0.8.32] - 2023-09-24#

新特性#

  • 添加对 HuggingFaceEmbeddingInstructorEmbeddingOptimumEmbedding 的原生支持 (#7795)
  • 为 MyScale 向量存储添加元数据过滤和混合搜索 (#7780)
  • 允许为 Milvus 设置自定义文本字段名称 (#7790)
  • VectorIndexAutoRetriever 添加对 vector_store_query_mode 的支持 (#7797)

错误修复 / 细节改进#

  • 更新 LanceDBVectorStore 以处理分数和距离 (#7754)
  • CondenseQuestionChatEngine 中将 LLM 传递给 memory_cls (#7785)

[0.8.31] - 2023-09-22#

新特性#

  • 添加 pydantic 元数据提取器 (#7778)
  • 允许用户在 azure cognitive 向量存储中设置嵌入维度 (#7734)
  • 添加 semantic similarity evaluator (#7770)

错误修复 / 细节改进#

  • 📝文档:更新 Chatbot 教程和 Notebook (#7767)
  • 修复处理空节点的 response synthesizers (#7773)
  • 修复 auto vector retriever 中的 NotImplementedError (#7764)
  • “KnowledgeGraphQueryEngine”中多个 kwargs 值的 bug 修复 (#7763)
  • 允许设置 azure cognitive search 维度 (#7734)
  • 将 service context 传递给 dataset generator 的索引 (#7748)
  • 修复 selector templates 的 output parsers (#7774)
  • 更新 Chatbot_SEC.ipynb (#7711)
  • 对 cassandra 测试进行 linter/typechecker 友好改进 (#7771)
  • 公开 PgVectorStore 的调试选项 (#7776)
  • llms/openai: 通过考虑 prompt_filter_results 字段修复 Azure OpenAI 问题 (#7755)

[0.8.30] - 2023-09-21#

新特性#

  • 添加对 gpt-3.5-turbo-instruct 的支持 (#7729)
  • 添加对 TimescaleVectorStore 的支持 (#7727)
  • 添加 LongContextReorder 以解决 lost-in-the-middle 问题 (#7719)
  • 添加检索评估 (#7738)

错误修复 / 细节改进#

  • 为 async context chat engine 添加 node post-processors (#7731)
  • 为 postgres tsv 列添加唯一索引名称 (#7741)

[0.8.29.post1] - 2023-09-18#

错误修复 / 细节改进#

  • 修复 embeddings 的 langchain 导入错误 (#7714)

[0.8.29] - 2023-09-18#

新特性#

  • 为基础 simple vector store 添加元数据过滤 (#7564)
  • 添加低级路由器指南 (#7708)
  • 添加 CustomQueryEngine 类 (#7703)

错误修复 / 细节改进#

  • 修复 lite-llm 中的上下文窗口元数据问题 (#7696)

[0.8.28] - 2023-09-16#

新特性#

  • 添加 CorrectnessEvaluator (#7661)
  • 添加对 Ollama LLM 的支持 (#7635)
  • 添加 HWPReader (#7672)
  • 简化 portkey LLM 接口 (#7669)
  • ElasticsearchStore 向量存储添加异步操作支持 (#7613)
  • 添加对 LiteLLM 的支持 (#7600)
  • 添加批处理评估运行器 (#7692)

错误修复 / 细节改进#

  • 避免 async langchain embeddings 中的 NotImplementedError (#7668)
  • 提高 LLM selectors 的可靠性 (#7678)
  • 修复 query_wrapper_promptsystem_prompt 在 output parsers 和 completion models 中的问题 (#7678)
  • 修复 citation query engine 中的节点属性继承问题 (#7675)

破坏性变更#

  • 重构并更新 BaseEvaluator 接口以使其更一致 (#7661)
  • 使用 evaluate 函数处理通用输入
  • 使用 evaluate_response 函数处理 llama index query engine 的 Response 对象
  • 更新现有评估器,使其命名更明确
  • ResponseEvaluator -> FaithfulnessEvaluator
  • QueryResponseEvaluator -> RelevancyEvaluator
  • 旧名称保留为类别名以实现向后兼容

[0.8.27] - 2023-09-14#

新特性#

  • 添加低级教程部分 (#7673)

错误修复 / 细节改进#

  • default delta 应为一个 dict (#7665)
  • LLMPredictor 上更好的 query wrapper 逻辑 (#7667)

[0.8.26] - 2023-09-12#

新特性#

  • 添加非线性嵌入适配器 (#7658)
  • 在知识微调 notebook 中添加“微调 + RAG”评估 (#7643)

错误修复 / 细节改进#

  • 修复 sentence splitter 的 chunk-overlap 问题 (#7590)

[0.8.25] - 2023-09-12#

新特性#

  • 添加 AGENT_STEP 回调事件类型 (#7652)

错误修复 / 细节改进#

  • 允许 simple 模式与 as_chat_engine() 一起工作 (#7637)
  • 修复 azure streaming 中的索引错误 (#7646)
  • 从 llama-cpp 中移除 pdb (#7651)

[0.8.24] - 2023-09-11#

新特性#

  • 指南:通过微调记忆知识 (#7626)
  • 添加自定义评估模块提示模板的能力 (#7626)

错误修复#

  • 正确检测 llama-cpp-python 版本以加载默认的 GGML 或 GGUF llama2-chat-13b 模型 (#7616)
  • 使用 RetrieverQueryEngine.from_args() 正确传递 summary_template (#7621)
  • 修复 wandb callback 中的 span 类型 (#7631)

[0.8.23] - 2023-09-09#

错误修复#

  • 确保 llama2 的首次聊天提示中包含上下文和系统提示 (#7597)
  • 避免 refine 过程中的负块大小错误 (#7607)
  • 修复分层节点解析器中小文档的关系问题 (#7611)
  • 更新 Anyscale Endpoints 集成,完全支持流式传输和异步操作 (#7602)
  • 更好地支持将凭据作为 LLM 构造函数参数传递到 OpenAIAzureOpenAIAnyscale 中 (#7602)

破坏性变更#

  • 更新 milvus 向量存储以支持过滤器和动态模式 (#7286)
  • 有关用法,请参阅更新的 notebook
  • 将 NLTK 添加到核心依赖项中,以支持默认的 sentence splitter (#7606)

[0.8.22] - 2023-09-07#

新特性#

  • 添加对 ElasticSearch 向量存储的支持 (#7543)

错误修复 / 细节改进#

  • 修复 ElasticSearchReader 中微小的 _index bug (#7570)
  • 修复全局 service context 中 prompt helper 设置的 bug (#7576)
  • 再次移除 openai 嵌入中的换行符 (#7588)
  • 修复在 service context 中设置 query_wrapper_prompt 的微小 bug (#7585)

破坏性/弃用 API 变更#

  • 清理 vector store 接口,使用 BaseNode 而不是 NodeWithEmbedding
  • 对于大多数用户来说,这是无操作变更
  • 对于直接使用 VectorStore 抽象并手动构建 NodeWithEmbedding 对象的用户,这是一个微小的破坏性变更。请直接使用设置了 embeddingTextNode,而不是 NodeWithEmbedding

[0.8.21] - 2023-09-06#

新特性#

  • 添加嵌入适配器微调引擎 + 指南 (#7565)
  • 添加对 Azure Cognitive Search 向量存储的支持 (#7469)
  • 支持在 supabase 中删除 (#6951)
  • 添加对 Espilla 向量存储的支持 (#7539)
  • 添加对 AnyScale LLM 的支持 (#7497)

错误修复 / 细节改进#

  • VectorIndexAutoRetriever 中默认使用用户可配置的 top-k (#7556)
  • 捕获结构化响应的验证错误 (#7523)
  • 修复流式 refine 模板 (#7561)

[0.8.20] - 2023-09-04#

新特性#

  • 添加 Portkey LLM 集成 (#7508)
  • 支持 postgres/pgvector 混合搜索 (#7501)
  • 升级 recursive retriever node reference notebook (#7537)

[0.8.19] - 2023-09-03#

新特性#

  • 将 list index 替换为 summary index (#7478)
  • 重命名 list index 为 summary index 部分 2 (#7531)

[0.8.18] - 2023-09-03#

新特性#

  • 添加 agent finetuning 指南 (#7526)

[0.8.17] - 2023-09-02#

新特性#

  • 使(部分)loader 可序列化 (#7498)
  • 将节点引用添加到 recursive retrieval (#7522)

错误修复 / 细节改进#

  • 在分割过程中元数据过大时引发信息丰富的错误 (#7513)
  • 允许在 simple node parser 中使用 langchain splitter (#7517)

[0.8.16] - 2023-09-01#

错误修复 / 细节改进#

  • 修复文档中 Marvin notebook 的链接 (#7504)
  • 确保 SimpleWebPageReader 中的元数据不是 None (#7499)
  • 修复 KGIndex 可视化问题 (#7493)
  • 改进 KG Index 中的空响应 (#7493)

[0.8.15] - 2023-08-31#

新特性#

  • 添加对 MarvinEntityExtractor 元数据提取器的支持 (#7438)
  • 为 SimpleWebPageReader 添加 url_metadata 回调 (#7445)
  • 扩展回调日志事件 (#7472)

错误修复 / 细节改进#

  • 仅在 OpenAI 的 text 001 嵌入模型中将换行符转换为空格 (#7484)
  • 修复 KnowledgeGraphRagRetriever 对于非 nebula 索引的问题 (#7488)
  • 支持在 PGVectorStore 中定义嵌入维度 (#7491)
  • 大幅提高基础向量存储的相似度计算速度 (#7494)

[0.8.14] - 2023-08-30#

新特性#

  • 特性:在 Graph RAG 中支持非 kg 异构图 (#7459)
  • rag 指南 (#7480)

错误修复 / 细节改进#

  • 改进 openai 微调模型解析 (#7474)
  • 进行一些代码去重 (#7468)
  • 在 HF LLM 中支持 query_wrapper_prompt 的 str 和 templates 格式 (#7473)

[0.8.13] - 2023-08-29#

新特性#

  • 添加嵌入微调 (#7452)
  • 添加对 RunGPT LLM 的支持 (#7401)
  • 与 DeepEval 的集成指南和 notebook (#7425)
  • 添加 VectorIndexVectaraRetriever 作为托管索引 (#7440)
  • 添加对 to_tool_list 支持检测和使用异步函数 (#7282)

[0.8.12] - 2023-08-28#

新特性#

  • 添加 openai 微调类 (#7442)
  • Service Context to/from dict (#7395)
  • 添加 finetuning 指南 (#7429)

小特性 / 细节改进 / 错误修复#

  • 添加如何运行 FalkorDB docker 的示例 (#7441)
  • 更新 root.md 以使用 get_response_synthesizer 预期类型 (#7437)
  • MonsterAPI Pydantic 版本 v2/v1 支持的 bug 修复。文档更新 (#7432)

[0.8.11.post3] - 2023-08-27#

新特性#

  • AutoMergingRetriever (#7420)

[0.8.10.post1] - 2023-08-25#

新特性#

  • 添加对使用 MonsterAPI 的 MonsterLLM 支持 (#7343)
  • 支持 NebulaGraphStore 中的 comments 字段和 int 类型 VID (#7402)
  • 添加 DynamoDB 可配置端点 (#6777)
  • 为 Refine response synthesizer 添加结构化答案过滤 (#7317)

错误修复 / 细节改进#

  • 为 json file reader 使用 utf-8 (#7390)
  • 修复实体提取器初始化 (#7407)

[0.8.9] - 2023-08-24#

新特性#

  • 添加对 FalkorDB/RedisGraph 图存储的支持 (#7346)
  • 添加定向子图 RAG (#7378)
  • 添加对 BM25Retriever 的支持 (#7342)

错误修复 / 细节改进#

  • Xinference LLM 添加 max_tokens (#7372)
  • 在多线程应用中支持缓存目录创建 (#7365)
  • 确保 openai 的 temperature 是浮点数 (#7382)
  • 移除 knowledge graph retriever 中的重复主题 (#7378)
  • 添加对 pydantic v1 和 v2 的支持,以允许其他应用程序继续前进 (#7394)

破坏性/弃用 API 变更#

  • 重构提示模板 (#7319)
  • 使用 BasePromptTemplate 进行通用类型定义
  • 使用 PromptTemplateChatPromptTemplateSelectorPromptTemplate 作为核心实现
  • 使用 LangchainPromptTemplate 与 Langchain 提示模板兼容
  • 在代码库中完全替换特定提示类(例如 SummaryPrompt),使用通用的 BasePromptTemplate 进行类型定义。
  • 保留 Prompt 作为 PromptTemplate 的别名以实现向后兼容。
  • 破坏性变更:移除对 Prompt.from_langchain_prompt 的支持,请改用 template=LangchainPromptTemplate(lc_template)

[0.8.8] - 2023-08-23#

新特性#

  • OpenAIFineTuningHandler 用于收集 OpenAI 微调的 LLM 输入/输出 (#7367)

错误修复 / 细节改进#

  • 添加对 claude-instant-1.2 的支持 (#7369)

[0.8.7] - 2023-08-22#

新特性#

  • 支持微调的 OpenAI 模型 (#7364)
  • 添加对 Cassandra 向量存储的支持 (#6784)
  • 支持工具函数中的 pydantic 字段 (#7348)

错误修复 / 细节改进#

  • 修复 OpenAIAgent 中强制函数调用导致的无限循环 (#7363)

[0.8.6] - 2023-08-22#

新特性#

  • 自动与 recursive retriever notebook (#7353)
  • 支持 BagelDB 的 Reader 和 Vector Store,并附带示例 notebook (#7311)

错误修复 / 细节改进#

  • 在 retry source query engine 中使用 service context 处理中间索引 (#7341)
  • prompt helper + chat models 的临时修复 (#7350)
  • 正确跳过未安装包时的单元测试 (#7351)

[0.8.5.post2] - 2023-08-20#

新特性#

  • 添加 FireStore docstore/index store 支持 (#7305)
  • 添加 recursive agent notebook (#7330)

错误修复 / 细节改进#

  • 修复 Azure pydantic 错误 (#7329)
  • 修复 callback trace id(使其成为 context var)(#7331)

[0.8.5.post1] - 2023-08-18#

新特性#

  • Awadb 向量存储 (#7291)

错误修复 / 细节改进#

  • 修复 OpenAI llm temperature 类型 bug

[0.8.5] - 2023-08-18#

新特性#

  • 在 service context 中公开一个 system prompt/query wrapper prompt,用于开源 LLM (#6647)
  • 将默认 MyScale 索引格式更改为 MSTG (#7288)
  • 为 chat engines/agents 添加跟踪功能 (#7304)
  • 将 LLM 和 embeddings 移至 pydantic (#7289)

错误修复 / 细节改进#

  • 修复 sentence splitter bug (#7303)
  • 修复 sentence splitter 无限循环问题 (#7295)

[0.8.4] - 2023-08-17#

错误修复 / 细节改进#

  • 改进 SQL 查询解析 (#7283)
  • 修复从全局 service context 加载 embed_model 的问题 (#7284)
  • 限制 langchain 版本,直到迁移到 pydantic v2 (#7297)

[0.8.3] - 2023-08-16#

新特性#

  • 添加 Knowledge Graph RAG Retriever (#7204)

错误修复 / 细节改进#

  • 在 OpenAI LLM 类构造函数中接受 api_key kwarg (#7263)
  • 修复为 StreamingAgentChatResponse 的不同实例创建单独队列实例的问题 (#7264)

[0.8.2.post1] - 2023-08-14#

新特性#

  • 添加对 Rockset 作为向量存储的支持 (#7111)

错误修复#

  • 修复 service context 定义中可能导致 LLM 被禁用的 bug (#7261)

[0.8.2] - 2023-08-14#

新特性#

  • 通过在 service context 中将 LLM 或 embedding 模型设置为 None 来禁用它们 (#7255)
  • 使用 embed_model="local:<model_name>" 语法解析几乎所有 huggingface embedding 模型 (#7255)
  • 异步工具调用支持 (#7239)

错误修复 / 细节改进#

  • 更新 supabase 添加和查询的 kwargs (#7103)
  • 对默认提示进行微调,以允许更通用的查询 (#7254)
  • 使 CustomLLM 的 callback manager 成为可选 + 文档更新 (#7257)

[0.8.1] - 2023-08-13#

新特性#

  • 特性:为 ContextChatEngine 添加 node_postprocessors (#7232)
  • 添加 ensemble query engine 教程 (#7247)

小特性#

  • 允许 Fastchat/本地 OpenAI API 端点使用 EMPTY keys (#7224)

[0.8.0] - 2023-08-11#

新特性#

  • 添加“LLAMA_INDEX_CACHE_DIR”以控制缓存文件 (#7233)
  • 可能时默认使用 pydantic 选择器 (#7154, #7223)
  • 移除 service context 中 embed_model 的 langchain 包装器依赖 (#7157)
  • Metadata extractors 现在接受一个 LLM 对象,除了 LLMPredictor (#7202)
  • 添加本地模式 + 回退到 llama.cpp + llama2 (#7200)
  • 为 embeddings 添加本地回退到 BAAI/bge-small-en (#7200)
  • 添加 SentenceWindowNodeParser + MetadataReplacementPostProcessor (#7211)

破坏性变更#

  • 将默认 LLM 从 text-davinci-003 更改为 gpt-3.5-turbo (#7223)
  • 更改 compact/refine/tree_summarize 的提示,以更好地与 gpt-3.5-turbo 配合使用 (#7150, #7179, #7223)
  • 将默认 LLM temperature 提高到 0.1 (#7180)

[0.7.24.post1] - 2023-08-11#

其他变更#

  • 回滚 #7223 对默认值的更改 (#7235)

[0.7.24] - 2023-08-10#

新特性#

  • 可能时默认使用 pydantic 选择器 (#7154, #7223)
  • 移除 service context 中 embed_model 的 langchain 包装器依赖 (#7157)
  • Metadata extractors 现在接受一个 LLM 对象,除了 LLMPredictor (#7202)
  • 添加本地模式 + 回退到 llama.cpp + llama2 (#7200)
  • 为 embeddings 添加本地回退到 BAAI/bge-small-en (#7200)
  • 添加 SentenceWindowNodeParser + MetadataReplacementPostProcessor (#7211)

破坏性变更#

  • 将默认 LLM 从 text-davinci-003 更改为 gpt-3.5-turbo (#7223)
  • 更改 compact/refine/tree_summarize 的提示,以更好地与 gpt-3.5-turbo 配合使用 (#7150, #7179, #7223)
  • 将默认 LLM temperature 提高到 0.1 (#7180)

其他变更#

  • 文档:改进 Mendable Search (#7220)
  • 重构 openai 代理 (#7077)

错误修复 / 细节改进#

  • 对 pgvector/postgres vector db 使用 1 - cosine_distance (#7217)
  • 修复元数据格式化和提取问题 (#7216)
  • 修复 (readers): 修复非 ASCII JSON Reader bug (#7086)
  • 内务:将 PgVectorStore 变量名从 sim 更改为 distance 以提高清晰度 (#7226)

[0.7.23] - 2023-08-10#

错误修复 / 细节改进#

  • 修复自定义模板和继承导致的元数据格式化问题 (#7216)

[0.7.23] - 2023-08-10#

新特性#

  • 向文档添加“一键可观测性”页面 (#7183)
  • 为本地部署添加 Xorbits inference (#7151)
  • 添加 Zep 向量存储集成 (#7203)
  • 特性/zep 向量存储 (#7203)

错误修复 / 细节改进#

  • 更新默认的 EntityExtractor 模型 (#7209)
  • 使 ChatMemoryBuffer 可 pickle 化 (#7205)
  • 重构 BaseOpenAIAgent (#7077)

[0.7.22] - 2023-08-08#

新特性#

  • 添加 ensemble retriever notebook (#7190)
  • 文档:添加本地 llama2 notebook (#7146)

错误修复 / 细节改进#

  • 通过在 BaseOpenAIAgent 中调用 super 构造函数修复 AttributeError: 'OpenAIAgent' object has no attribute 'callback_manager' 问题
  • 移除 nebula 查询中的反引号 (#7192)

[0.7.21] - 2023-08-07#

新特性#

  • 添加用于元数据提取的 EntityExtractor (#7163)

[0.7.20] - 2023-08-06#

新特性#

  • 添加路由器模块文档 (#7171)
  • 添加 retriever router (#7166)

新特性#

  • 添加 RouterRetriever 用于将查询路由到特定检索器 (#7166)

错误修复 / 细节改进#

  • 修复 OpenAIAgent 出现多个并发流式响应时导致令牌在响应流之间交错的问题 (#7164)
  • 修复 llm callbacks 问题 (args[0] error) (#7165)

[0.7.19] - 2023-08-04#

新特性#

  • 为 weaviate 添加元数据过滤 (#7130)
  • 为 agents 和流式传输添加令牌计数(以及所有回调)(#7122)

[0.7.18] - 2023-08-03#

新特性#

  • 为 memory 对象添加 to/from_stringto/from_dict 方法 (#7128)
  • 在 SQL 查询的表格信息中包含数据库表的列注释 (#7124)
  • 添加 Neo4j 支持 (#7122)

错误修复 / 细节改进#

  • AzureOpenAI 类添加 Azure AD 验证支持 (#7127)
  • 打印 agent/chat engine 响应流时添加 flush=True (#7129)
  • AzureOpenAI 类添加 Azure AD 支持 (#7127)
  • 更新 LLM question generator prompt 以提及 JSON markdown (#7105)
  • 修复 chat engines 中的 astream_chat 问题 (#7139)

[0.7.17] - 2023-08-02#

新特性#

  • 更新 ReActAgent 以支持内存模块(微小的破坏性变更,因为构造函数接受 memory 而不是 chat_history,但主要的 from_tools 方法保持向后兼容)(#7116)
  • 更新 ReActAgent 以支持流式传输 (#7119)
  • 添加 Neo4j 图存储和查询引擎集成 (#7122)
  • 添加对象流式传输 (#7117)

[0.7.16] - 2023-07-30#

新特性#

  • 聊天源节点 (#7078)

[0.7.15] - 2023-07-29#

错误修复 / 细节改进#

  • anthropic api key 自定义 (#7082)
  • 修复 Contributor Docs 中 API reference 的损坏链接 (#7080)
  • 更新 vector store 文档 (#7076)
  • 更新注释 (#7073)

[0.7.14] - 2023-07-28#

新特性#

  • 添加 HotpotQADistractor benchmark evaluator (#7034)
  • 为 LanceDB 添加元数据过滤和删除支持 (#7048)
  • 在 opensearch 中使用 MetadataFilters (#7005)
  • 添加对 KuzuGraphStore 的支持 (#6970)
  • 添加 kg_triplet_extract_fn 以自定义 KG 的构建方式 (#7068)

错误修复 / 细节改进#

  • 修复 context chat engine 中的字符串格式化问题 (#7050)
  • 修复异步事件的跟踪问题 (#7052)
  • 放宽 KG 三元组提取的限制 (#7059)
  • 为检索到的 KG 数据添加可配置的限制 (#7059)
  • 改进 Nebula 连接 (#7059)
  • 修复 agent response 构建源节点的 bug (#7067)

[0.7.13] - 2023-07-26#

新特性#

  • 为 AzureOpenAI 支持函数调用 API (#7041)

错误修复 / 细节改进#

  • 调整 prompt 以消除 SubQ engine 中的 KeyError (#7039)
  • 修复 Azure OpenAI 密钥验证 (#7042)

[0.7.12] - 2023-07-25#

新特性#

  • 为底层 query engines 添加 kwargsComposableGraph (#6990)
  • 在初始化时验证 openai key (#6940)
  • 添加异步 embeddings 和异步 RetrieverQueryEngine (#6587)
  • 为 PGVectorStore 添加异步 aqueryasync_add (#7031)
  • 为 chat engine 和 agent responses 添加 .source_nodes 属性 (#7029)
  • 添加 OpenInferenceCallback 以 OpenInference 格式存储生成数据 (#6998)

错误修复 / 细节改进#

  • 修复 data agents 的 achat memory 初始化问题 (#7000)
  • 为 agengt/chat engine response 类添加 print_response_stream() (#7018)

错误修复 / 细节改进#

  • 修复 data agents 的 achat memory 初始化问题 (#7000)
  • 为 agengt/chat engine response 类添加 print_response_stream() (#7018)

[v0.7.11.post1] - 2023-07-20#

新特性#

  • 可能时默认使用 pydantic 为 sub-question query engine 生成问题 (#6979)

错误修复 / 细节改进#

  • 修复大型聊天内存中消息的返回顺序问题 (#6979)

[v0.7.11] - 2023-07-19#

新特性#

  • 添加 SentenceTransformerRerank 节点后处理器,用于快速本地重排序 (#6934)
  • 在 pandas query engine 中添加 numpy 支持以评估查询 (#6935)
  • 为 Postgres Vector Storage 集成添加元数据过滤支持 (#6968)
  • 为 agents 和 query engines 提供适当的 llama2 支持 (#6969)

错误修复 / 细节改进#

  • model_name 添加到 LLMMetadata (#6911)
  • 在 query engines 中回退到 retriever service context (#6911)
  • 修复 as_chat_engine() 在额外 kwargs 下的 ValueError 问题 (#6971

[v0.7.10.post1] - 2023-07-18#

新特性#

  • 添加对 Replicate LLM 的支持 (vicuna & llama 2!) (#6958)

错误修复 / 细节改进#

  • 修复 condense chat engine 的流式传输问题 (#6958)

[v0.7.10] - 2023-07-17#

新特性#

  • 添加对 chroma v0.4.0 的支持 (#6937)
  • 将嵌入向量记录到 callback manager (#6962)

错误修复 / 细节改进#

  • 添加更健壮的嵌入超时设置 (#6779)
  • 改进 postgres vector store 的连接会话管理 (#6843)

[v0.7.9] - 2023-07-15#

新特性#

  • 指定 embed_model="local" 以在 service context 中使用默认本地嵌入 (#6806)
  • BasePydanticProgram 添加异步 acall 端点(默认为同步版本)。为 OpenAIPydanticProgram 实现此功能 (#6910)

错误修复 / 细节改进#

  • 修复搜索现有 vector dbs 时 null 元数据问题 (#6912)
  • SimpleDirectoryReader 添加模块指南文档 (#6916)
  • 确保 CondenseQuestionChatEngine 的流式聊天端点即使在底层 query engine 中未显式设置 streaming=True 时也能工作 (#6910)

[v0.7.8] - 2023-07-13#

新特性#

  • 添加嵌入速度基准测试 (#6876)
  • 添加 BEIR 检索基准测试 (#6825)

错误修复 / 细节改进#

  • 从 deprecated_terms 中移除 toctrees (#6895)
  • 放宽类型依赖限制 (#6879)
  • 文档:修改 evaluation notebook (#6840)
  • 如果模型不支持函数则引发错误 (#6896)
  • 修复 (bench embeddings): 未考虑字符串长度的 bug (#6899)

[v0.7.7] - 2023-07-13#

新特性#

  • 改进 milvus 一致性支持和输出字段支持 (#6452)
  • 添加知识图谱查询 w/ cypyer+nebula 支持 (#6642)
  • 添加 Document.example() 以创建文档进行快速原型开发 (#6739)
  • 替换 react chat engine 使用原生 reactive agent (#6870)

错误修复 / 细节改进#

  • 内务:为 makefile 添加帮助消息 (#6861)

错误修复 / 细节改进#

  • 修复使用 SQLTableSchema context_str 属性的支持问题 (#6891)

[v0.7.6] - 2023-07-12#

新特性#

  • 为 agent/chat engine responses 添加 sources (#6854)
  • 为 agents / chat engines 添加基本聊天缓冲区内存 (#6857)
  • 添加加载和搜索工具 (#6871)
  • 添加 simple agent benchmark (#6869)
  • 添加 agent 文档 (#6866)
  • 添加 react agent (#6865)

破坏性/弃用 API 变更#

  • 将 react chat engine 替换为原生 react agent (#6870)
  • 将默认聊天模式设置为“best”:可能时使用 openai agent,否则使用 react agent (#6870)

错误修复 / 细节改进#

  • 修复对 legacy vector store 元数据的支持问题 (#6867)
  • 修复文档中的 chroma notebook 链接 (#6872)
  • 更新 LC embeddings 文档 (#6868)

[v0.7.5] - 2023-07-11#

新特性#

  • 添加 Anthropic LLM 实现 (#6855)

错误修复 / 细节改进#

  • 修复 SentenceEmbeddingOptimizer 中的索引错误 (#6850)
  • 修复自定义 embedding model 的文档 (#6851)
  • 修复 (silent error): 为 SimpleDirectoryReader 添加验证 (#6819)
  • 修复文档中的链接 (#6833)
  • 修复 Azure gpt-35-turbo 模型未被识别的问题 (#6828)
  • 更新 Chatbot_SEC.ipynb (#6808)
  • 将剩余的原始名称重命名为 LlamaIndex (#6792)
  • 修复相同类型的嵌套 traces (#6791)

[v0.7.4] - 2023-07-08#

新特性#

  • MetadataExtractor - 通过基于 LLM 的特征提取器增强文档元数据 (#6764)

错误修复 / 细节改进#

  • 修复将 query bundle 传递给 node postprocessors 的问题 (#6780)
  • 修复 callback manager 嵌套 traces 的错误 (#6791)

[v0.7.3] - 2023-07-07#

新特性#

  • Sub question query engine 在 callback manager 中返回 sub questions 的源节点 (#6745)
  • trulens 集成 (#6741)
  • 为 subquestion engine 添加 sources (#6745)

错误修复 / 细节改进#

  • 添加/修复 simple 和 condense chat engines 的流式传输支持 (#6717)
  • 修复 response_mode="no_text" response synthesizer (#6755)
  • 修复在 service context 中设置 num_outputcontext_window 的错误 (#6766)
  • 修复教程中缺失的 as_query_engine() (#6747)
  • 修复 notebook 中的变量 sql_query_engine (#6778)
  • 修复 required function fields (#6761)
  • 在 Prompt, SQL gen 中移除 stop token 的使用 (#6782)

[v0.7.2] - 2023-07-06#

新特性#

  • 支持 Azure OpenAI (#6718)
  • 在 chat engine 和 OpenAI agent 中支持 prefix messages (例如系统提示) (#6723)
  • 添加 CBEventType.SUB_QUESTIONS 事件类型用于跟踪 sub question 查询/响应 (#6716)

错误修复 / 细节改进#

  • 修复 HF LLM 输出错误 (#6737)
  • 为 langchain message templates 添加 system message 支持 (#6743)
  • 修复应用 node-postprocessors 的问题 (#6749)
  • 添加 llama_index.llms 下缺失的 CustomLLM 导入 (#6752)
  • 修复 (typo): get_transformer_tokenizer_fn (#6729)
  • 特性 (formatting): black[jupyter] (#6732)
  • 修复 (test): test_optimizer_chinese (#6730)

[v0.7.1] - 2023-07-05#

新特性#

  • OpenAI agents 的流式传输支持 (#6694)
  • 添加 recursive retriever + notebook 示例 (#6682)

[v0.7.0] - 2023-07-04#

新特性#

  • 索引创建进度条 (#6583)

错误修复/细节改进#

  • 改进 chat refine 模板 (#6645)

破坏性/弃用 API 变更#

  • BaseOpenAIAgent 更改为使用 llama_index.llms.OpenAI。将 chat_history 调整为使用 List[ChatMessage]] 类型。
  • 移除 (先前已弃用) llama_index.langchain_helpers.chain_wrapper 模块。
  • 移除 (先前已弃用) llama_index.token_counter.token_counter 模块。有关新的基于回调的令牌计数的更多详细信息,请参阅迁移指南
  • 移除 ChatGPTLLMPredictorHuggingFaceLLMPredictor。有关替换方案的更多详细信息,请参阅迁移指南
  • 移除对通过 LLMPredictor 构造函数设置 cache 的支持。
  • 更新 BaseChatEngine 接口
  • chat_history 调整为使用 List[ChatMessage]] 类型
  • chat_history 状态作为属性公开
  • 支持在 chatachat 端点中覆盖 chat_history
  • 移除 PromptHelper 的已弃用参数:max_input_sizeembedding_limitmax_chunk_overlap
  • 更新所有 notebook 以使用原生 openai 集成 (#6696)

[v0.6.38] - 2023-07-02#

新特性#

  • 在索引创建过程中添加可选的 tqdm 进度条 (#6583)
  • 为“compact”和“refine”响应模式添加异步支持 (#6590)
  • [特性]为 optimizer (chinese) 添加 transformer 分词功能 (#6659)
  • 添加 vector store 的简单基准测试 (#6670)
  • 引入 llama_index.llms 模块,包含新的 LLM 接口以及 OpenAIHuggingFaceLLMLangChainLLM 实现 (#6615)
  • 废除 pydantic program (#6666)

错误修复 / 细节改进#

  • 改进 RedisVectorStore 的元数据/节点存储和检索 (#6678)
  • 修复 vector store 中的节点与文档过滤问题 (#6677)
  • 在文档中添加 context retrieval agent notebook 链接 (#6660)
  • 允许 ImageNode 类中的 'image' 属性为 null 值 (#6661)
  • 修复文档中的损坏链接 (#6669)
  • 更新 milvus 以存储节点内容 (#6667)

[v0.6.37] - 2023-06-30#

新特性#

  • 添加上下文增强 openai agent (#6655)

[v0.6.36] - 2023-06-29#

新特性#

  • 支持 Redis 用于 index stores 和 docstores (#6575)
  • DuckDB + SQL query engine notebook (#6628)
  • 添加展示 deplot data loader 的 notebook (#6638)

错误修复 / 细节改进#

  • 从 LLM 解析 JSON 更健壮,用于 SelectionOutputParser (#6610)
  • 使我们的 loader 与 llama-hub 保持一致 (#6630)
  • 在 notebook 中移除 SQLStructStoreIndex 的使用 (#6585)
  • MD reader: 移除 html 标签并保留换行符 (#6618)
  • 提高 langchain 最低版本到最新版本 (#6632)
  • 修复 postgres vector store 中的元数据列名 (#6622)
  • Postgres 元数据修复 (#6626, #6634)
  • 修复 contribution.md 中 dataloaders 的链接 (#6636)
  • 修复:文档中创建 custom_llm huggingface 示例的拼写错误 (#6639)
  • 更新 SelectionOutputParser 以处理 JSON 对象和数组 (#6610)
  • 修复 docstring 参数拼写错误 (#6652)

[v0.6.35] - 2023-06-28#

  • 重构结构化输出 + pydantic programs (#6604)

错误修复 / 细节改进#

  • 修复 OpenSearch vector stores 的序列化问题 (#6612)
  • 修复文档关系 (#6606)
  • 修复解析 git repo 时忽略目录的 bug (#4196)
  • 更新 Chroma notebook (#6572)
  • 后向兼容旧节点名 (#6614)
  • 添加更改 chroma 实现的能力 (#6601)

[v0.6.34] - 2023-06-26#

补丁更新 (v0.6.34.post1)#

  • 修复 Document obj 的导入问题以实现向后兼容 (#6597)

新特性#

  • 基于 pydantic 的新 TextNode/Document 对象类 (#6586)
  • TextNode/Document 对象支持元数据自定义(元数据模板,从 LLM 或 embeddings 中排除元数据)(#6586)
  • 节点不再需要扁平的元数据字典,除非您使用的 vector store 要求如此 (#6586)

错误修复 / 细节改进#

  • 使用 NLTK_DATA 环境变量控制 NLTK 下载位置 (#6579)
  • [discord] 在 group_conversations.py 中将 author 保存为元数据 (#6592)
  • requirements 中将 bs4 更改为 beautifulsoup4 (#6582)
  • 对 euclidean distance 取反 (#6564)
  • 在文档中添加 df output parser notebook 链接 (#6581)

破坏性/弃用 API 变更#

  • Node 已更名为 TextNode,并从 llama_index.schema 导入 (#6586)
  • TextNodeDocument 必须使用 kwargs 实例化:Document(text=text) (#6586)
  • TextNode (原名 Node) 具有 id_node_id 属性,而不是 doc_id (#6586)
  • TextNodeDocument 具有 metadata 属性,取代了 extra_info 属性 (#6586)
  • TextNode 不再具有 node_info 属性(start/end 索引直接通过 start/end_char_idx 属性访问)(#6586)

[v0.6.33] - 2023-06-25#

新特性#

  • 添加 typesense vector store (#6561)
  • 添加 df output parser (#6576)

错误修复 / 细节改进#

  • 通过 bridge module 跟踪 langchain 依赖 (#6573)

[v0.6.32] - 2023-06-23#

新特性#

  • 添加 object index (#6548)
  • 添加 SQL Schema Node Mapping + SQLTableRetrieverQueryEngine + obj index 修复 (#6569)
  • sql 重构 (NLSQLTableQueryEngine) (#6529)

错误修复 / 细节改进#

  • 更新 vector_stores.md (#6562)
  • 微小 BaseResponseBuilder 接口清理 (#6557)
  • 重构 TreeSummarize (#6550)

[v0.6.31] - 2023-06-22#

错误修复 / 细节改进#

  • 正确将 weaviate 距离转换为分数 (#6545)
  • 重构 tree summarize 并修复不截断上下文的 bug (#6550)
  • 修复 custom KG retrieval notebook 的细节问题 (#6551)

[v0.6.30] - 2023-06-21#

新特性#

  • router query engine 中的 multi-selector 支持 (#6518)
  • 使用 OpenAI function calling API 在 router query engine 中支持 pydantic selector (#6518)
  • CondenseQuestionChatEngineSimpleChatEngine 中的流式响应支持 (#6524)
  • QdrantVectorStore 中的元数据过滤支持 (#6476)
  • 添加 PGVectorStore 以支持带有 pgvector 的 postgres (#6190)

错误修复 / 细节改进#

  • 改进 mbox reader 中的错误处理 (#6248)
  • 修复使用 weaviate 时空白相似度分数的问题 (#6512)
  • 修复 PrevNextNodePostprocessor 中节点排序问题 (#6048)

破坏性/弃用 API 变更#

  • 重构 PandasQueryEngine 以直接接受 df,弃用 PandasIndex (#6527)

[v0.6.29] - 2023-06-20#

新特性#

  • 使用 OpenAI Function API 的 query planning 工具 (#6520)
  • 文档:kg+vector 索引示例 (#6497)
  • 为 Cohere 和 AI21(J2 模型) 设置上下文窗口大小 (#6485)

错误修复 / 细节改进#

  • 为 Cohere 和 AI21 添加默认输入大小 (#6485)
  • 文档:将 dict object 中的逗号替换为冒号 (#6439)
  • 提示中额外的空格和错误消息更新 (#6443)
  • [Issue 6417] 修复 prompt_templates 文档页面 (#6499)
  • 移除 monkey patch 并更新模型到上下文窗口的映射 (#6490)

[v0.6.28] - 2023-06-19#

新特性#

  • 新的 OpenAI Agent + Query Engine Cookbook (#6496)
  • 允许递归数据提取 (pydantic program) (#6503)

错误修复 / 细节改进#

  • 更新 mongo interface (#6501)
  • 修复我们遗漏的 openai pydantic program 问题 (#6503) (#6504)
  • 修复 Airbyte notebook 中的 github 图片 (#6493)

[v0.6.27] - 2023-06-16#

新特性#

  • 为 weaviate 添加节点 doc_id 过滤 (#6467)
  • 新的 TokenCountingCallback 用于自定义和跟踪嵌入、提示和完成令牌使用量 (#6440)
  • OpenAI Retrieval Function Agent (#6491)

破坏性/弃用 API 变更#

  • 弃用当前的令牌跟踪功能(llm predictor 和 embed model 未来将不再跟踪令牌,请使用 TokenCountingCallback)(#6440)
  • 为 Simple Vector Store 添加 maximal marginal relevance,可以作为查询模式启用 (#6446)

错误修复 / 细节改进#

  • as_chat_engine 正确继承当前的 service context (#6470)
  • 从 pinecone 删除时使用 namespace (#6475)
  • 修复在 windows 上使用 fsspec 时的路径问题 (#3778)
  • 修复 SimpleDirectoryReader 中使用 custom file readers 的问题 (#6477)
  • 编辑 MMR Notebook (#6486)
  • FLARE 修复 (#6484)

[v0.6.26] - 2023-06-14#

新特性#

  • 添加 OpenAIAgent 和“构建自己的 agent”教程 notebook (#6461)
  • 添加 OpenAIPydanticProgram (#6462)

错误修复 / 细节改进#

  • 修复 citation engine 导入问题 (#6456)

[v0.6.25] - 2023-06-13#

新特性#

  • 添加 FLARE query engine (#6419)。

[v0.6.24] - 2023-06-12#

新特性#

  • 为带有现有数据的 vector store 添加更好的支持(例如允许为 Pinecone 和 Weaviate 配置 text key)(#6393)
  • 支持 Pineone 的批处理 upsert (#6393)
  • 添加初步的 guidance 集成。添加 GuidancePydanticProgram 用于通用结构化输出生成,以及 GuidanceQuestionGenerator 用于在 SubQuestionQueryEngine 中生成 sub-questions (#6246)。

[v0.6.23] - 2023-06-11#

错误修复 / 细节改进#

  • 移除 citation query engine 中硬编码的 chunk size (#6408)
  • Mongo demo 改进 (#6406)
  • 修复 notebook (#6418)
  • 清理 RetryQuery notebook (#6381)

[v0.6.22] - 2023-06-10#

新特性#

  • 添加 SQLJoinQueryEngine (SQLAutoVectorQueryEngine 的泛化) (#6265)
  • 在底层添加对 graph stores 的支持,并初步支持 Nebula KG。更多文档即将发布!(#2581)
  • 添加 guideline evaluator,允许 llm 根据用户指南提供反馈 (#4664)
  • 添加对 MongoDB Vector stores 的支持,以启用 Atlas knnbeta 搜索 (#6379)
  • 添加新的 CitationQueryEngine,用于在响应文本中以内联方式引用源 (#6239)

错误修复#

  • 修复 delete_ref_doc 未从 docstore 中移除所有元数据的 bug (#6192)
  • 修复加载现有 QDrantVectorStore 的 bug (#6230)

其他杂项#

  • 正式将 changelog 添加到 github 仓库 (#6191)

[v0.6.21] - 2023-06-06#

新特性#

  • SimpleDirectoryReader 添加新的 filename_as_id 标志,自动设置 doc_id (对于 refresh_ref_docs() 非常有用) (#6192)
  • DocArray vector store 集成 (#6172)
  • Tair vector store 集成 (#6185)
  • Weights and Biases callback handler 用于跟踪和版本化索引 (#6169)
  • 可以直接从 vector store 初始化索引:index = VectorStoreIndex.from_vector_store(vector_store=vector_store) (#6196)

错误修复#

  • 修复 multimodal notebook (#6173)
  • 更新/修复文档中的 SQL 教程 (#6182)

其他杂项#

  • 微小文档更新 (#6179)
  • 添加 github pull-requset 模板 (#6180)
  • 添加 github issue-forms (#6181)

[v0.6.20] - 2023-06-04#

新特性#

  • 添加新的 JSONQueryEngine,使用 JSON schema 提供更准确的 JSON 查询答案 (#6146)
  • 支持 redis vector-store 的元数据 (#6147)
  • 添加 Supabase vector store 集成 (#6096)

错误修复#

  • 修复 text-to-sql 提示中的拼写错误 (#6148)

破坏性/弃用 API 变更#

  • 移除索引中的 GPT 前缀(旧的导入/名称仍然支持)(#6157)

其他杂项#

  • 主要文档更新,将重要模块提升到顶层 (#6163)

[v0.6.19] - 2023-06-02#

新特性#

  • 为 llama-hub data loaders 添加 agent tool 抽象 (#6139)

其他杂项#

  • 微小文档更新 (#6142)

[v0.6.18] - 2023-06-02#

其他杂项#

  • 在 tutorials docs 部分添加 Discover LlamaIndex 视频系列 (#6120)
  • 微小文档更新 (#6179)