跳至内容

持久化和加载数据#

持久化数据#

默认情况下,LlamaIndex 将数据存储在内存中,如果需要,可以显式地持久化这些数据。

storage_context.persist(persist_dir="<persist_dir>")

这会将数据持久化到磁盘,位于指定的 persist_dir 下(默认为 `./storage`)。

多个索引可以从同一个目录中持久化和加载,前提是您跟踪索引 ID 以进行加载。

用户还可以配置默认情况下持久化数据的替代存储后端(例如 MongoDB)。在这种情况下,调用 storage_context.persist() 将不起作用。

加载数据#

要加载数据,用户只需使用相同的配置(例如,传入相同的 persist_dir 或向量存储客户端)重新创建存储上下文即可。

storage_context = StorageContext.from_defaults(
    docstore=SimpleDocumentStore.from_persist_dir(persist_dir="<persist_dir>"),
    vector_store=SimpleVectorStore.from_persist_dir(
        persist_dir="<persist_dir>"
    ),
    index_store=SimpleIndexStore.from_persist_dir(persist_dir="<persist_dir>"),
)

然后,我们可以通过下面的一些便捷函数从 StorageContext 中加载特定的索引。

from llama_index.core import (
    load_index_from_storage,
    load_indices_from_storage,
    load_graph_from_storage,
)

# load a single index
# need to specify index_id if multiple indexes are persisted to the same directory
index = load_index_from_storage(storage_context, index_id="<index_id>")

# don't need to specify index_id if there's only one index in storage context
index = load_index_from_storage(storage_context)

# load multiple indices
indices = load_indices_from_storage(storage_context)  # loads all indices
indices = load_indices_from_storage(
    storage_context, index_ids=[index_id1, ...]
)  # loads specific indices

# load composable graph
graph = load_graph_from_storage(
    storage_context, root_id="<root_id>"
)  # loads graph with the specified root_id

使用远程后端#

默认情况下,LlamaIndex 使用本地文件系统加载和保存文件。但是,您可以通过传入一个 fsspec.AbstractFileSystem 对象来覆盖此设置。

这是一个简单的示例,实例化一个向量存储

import dotenv
import s3fs
import os

dotenv.load_dotenv("../../../.env")

# load documents
documents = SimpleDirectoryReader(
    "../../../examples/paul_graham_essay/data/"
).load_data()
print(len(documents))
index = VectorStoreIndex.from_documents(documents)

到目前为止,一切都一样。现在,让我们实例化一个 S3 文件系统并从那里保存/加载。

# set up s3fs
AWS_KEY = os.environ["AWS_ACCESS_KEY_ID"]
AWS_SECRET = os.environ["AWS_SECRET_ACCESS_KEY"]
R2_ACCOUNT_ID = os.environ["R2_ACCOUNT_ID"]

assert AWS_KEY is not None and AWS_KEY != ""

s3 = s3fs.S3FileSystem(
    key=AWS_KEY,
    secret=AWS_SECRET,
    endpoint_url=f"https://{R2_ACCOUNT_ID}.r2.cloudflarestorage.com",
    s3_additional_kwargs={"ACL": "public-read"},
)

# If you're using 2+ indexes with the same StorageContext,
# run this to save the index to remote blob storage
index.set_index_id("vector_index")

# persist index to s3
s3_bucket_name = "llama-index/storage_demo"  # {bucket_name}/{index_name}
index.storage_context.persist(persist_dir=s3_bucket_name, fs=s3)

# load index from s3
index_from_s3 = load_index_from_storage(
    StorageContext.from_defaults(persist_dir=s3_bucket_name, fs=s3),
    index_id="vector_index",
)

默认情况下,如果您不传入文件系统,我们将假定使用本地文件系统。