跳到内容

安装与设置#

LlamaIndex 生态系统由一系列带有命名空间的 Python 包构成。

这对用户意味着 pip install llama-index 会附带一个核心入门包捆绑,并且可以根据需要安装额外的集成。

完整的包列表和可用集成可在 LlamaHub 上获取。

使用 Pip 快速安装#

要快速入门,你可以使用以下命令安装

pip install llama-index

这是一个入门包捆绑,包含

  • llama-index-core
  • llama-index-llms-openai
  • llama-index-embeddings-openai
  • llama-index-program-openai
  • llama-index-question-gen-openai
  • llama-index-agent-openai
  • llama-index-readers-file
  • llama-index-multi-modal-llms-openai

注意: LlamaIndex 可能会为各种包(NLTK、HuggingFace 等)下载并存储本地文件。使用环境变量 "LLAMA_INDEX_CACHE_DIR" 来控制这些文件的保存位置。

重要:OpenAI 环境设置#

默认情况下,我们使用 OpenAI 的 gpt-3.5-turbo 模型进行文本生成,使用 text-embedding-ada-002 进行检索和嵌入。为了使用此功能,你必须将 OPENAI_API_KEY 设置为环境变量。你可以通过登录你的 OpenAI 账户并创建新的 API 密钥来获取 API 密钥。

提示

你也可以使用许多其他可用的 LLM 之一。根据 LLM 提供商的不同,你可能需要额外设置环境变量和令牌。

查看我们的 OpenAI 入门示例

使用 Pip 自定义安装#

如果你不使用 OpenAI,或者想要更具选择性的安装,你可以根据需要安装单个包。

例如,对于使用 Ollama 和 HuggingFace 嵌入的本地设置,安装过程可能如下所示

pip install llama-index-core llama-index-readers-file llama-index-llms-ollama llama-index-embeddings-huggingface

查看我们的本地模型入门示例

使用和配置 LLM 的完整指南可在此处获取此处

使用和配置嵌入模型的完整指南可在此处获取此处

从源代码安装#

Git 克隆此仓库:git clone https://github.com/run-llama/llama_index.git。然后执行以下操作

  • 安装 poetry - 这将帮助你管理包依赖关系
  • 如果你需要使用 Poetry 运行 shell 命令但 shell 插件未安装,可以通过运行以下命令添加插件
    poetry self add poetry-plugin-shell
    
  • poetry shell - 此命令会创建一个虚拟环境,将安装的包限制在此项目中
  • pip install -e llama-index-core - 这将安装核心包
  • (可选) poetry install --with dev,docs - 这将安装大多数本地开发所需的所有依赖项

从那里,你可以根据需要使用 pip 安装集成,例如

pip install -e llama-index-integrations/readers/llama-index-readers-file
pip install -e llama-index-integrations/llms/llama-index-llms-ollama