开始之前¶
要运行本 Notebook,您需要执行以下操作
🦙 库安装¶
安装集成库 llama-index-alloydb-pg
和用于嵌入服务的库 llama-index-embeddings-vertex
。
%pip install --upgrade --quiet llama-index-alloydb-pg llama-index-embeddings-vertex llama-index-llms-vertex llama-index
仅限 Colab:取消注释以下单元格以重启内核,或使用按钮重启内核。对于 Vertex AI Workbench,您可以使用顶部的按钮重启终端。
# # Automatically restart kernel after installs so that your environment can access the new packages
# import IPython
# app = IPython.Application.instance()
# app.kernel.do_shutdown(True)
from google.colab import auth
auth.authenticate_user()
# @markdown Please fill in the value below with your Google Cloud project ID and then run the cell.
PROJECT_ID = "my-project-id" # @param {type:"string"}
# Set the project id
!gcloud config set project {PROJECT_ID}
基本用法¶
设置 AlloyDB 数据库值¶
在AlloyDB 实例页面中找到您的数据库值。
# @title Set Your Values Here { display-mode: "form" }
REGION = "us-central1" # @param {type: "string"}
CLUSTER = "my-cluster" # @param {type: "string"}
INSTANCE = "my-primary" # @param {type: "string"}
DATABASE = "my-database" # @param {type: "string"}
TABLE_NAME = "vector_store" # @param {type: "string"}
USER = "postgres" # @param {type: "string"}
PASSWORD = "my-password" # @param {type: "string"}
AlloyDBEngine 连接池¶
将 AlloyDB 建立为向量存储的需求和参数之一是一个 AlloyDBEngine
对象。AlloyDBEngine
配置了到您的 AlloyDB 数据库的连接池,使您的应用程序能够成功连接并遵循行业最佳实践。
要使用 AlloyDBEngine.from_instance()
创建 AlloyDBEngine
,您只需要提供 5 项信息
project_id
: AlloyDB 实例所在的 Google Cloud 项目的项目 ID。region
: AlloyDB 实例所在的区域。cluster
: AlloyDB 集群的名称。instance
: AlloyDB 实例的名称。database
: 要连接的 AlloyDB 实例上的数据库名称。
默认情况下,将使用IAM 数据库身份验证作为数据库身份验证方法。此库使用来自环境的应用程序默认凭据 (ADC) 所属的 IAM 主体。
或者,也可以使用基于用户名和密码的内置数据库身份验证来访问 AlloyDB 数据库。只需将可选的 user
和 password
参数提供给 AlloyDBEngine.from_instance()
user
: 用于内置数据库身份验证和登录的数据库用户password
: 用于内置数据库身份验证和登录的数据库密码。
注意:本教程演示了异步接口。所有异步方法都有对应的同步方法。
from llama_index_alloydb_pg import AlloyDBEngine
engine = await AlloyDBEngine.afrom_instance(
project_id=PROJECT_ID,
region=REGION,
cluster=CLUSTER,
instance=INSTANCE,
database=DATABASE,
user=USER,
password=PASSWORD,
)
适用于 AlloyDB Omni 的 AlloyDBEngine¶
要为 AlloyDB Omni 创建 AlloyDBEngine
,您需要一个连接 URL。AlloyDBEngine.from_connection_string
首先创建一个异步引擎,然后将其转换为 AlloyDBEngine
。以下是一个使用 asyncpg
驱动程序的连接示例
# Replace with your own AlloyDB Omni info
OMNI_USER = "my-omni-user"
OMNI_PASSWORD = ""
OMNI_HOST = "127.0.0.1"
OMNI_PORT = "5432"
OMNI_DATABASE = "my-omni-db"
connstring = f"postgresql+asyncpg://{OMNI_USER}:{OMNI_PASSWORD}@{OMNI_HOST}:{OMNI_PORT}/{OMNI_DATABASE}"
engine = AlloyDBEngine.from_connection_string(connstring)
初始化表¶
AlloyDBVectorStore
类需要一个数据库表。AlloyDBEngine
引擎有一个辅助方法 init_vector_store_table()
,可用于为您创建一个具有适当模式的表。
await engine.ainit_vector_store_table(
table_name=TABLE_NAME,
vector_size=768, # Vector size for VertexAI model(textembedding-gecko@latest)
)
可选提示:💡¶
您还可以在传递 table_name
的任何地方传递 schema_name
来指定模式名称。
SCHEMA_NAME = "my_schema"
await engine.ainit_vector_store_table(
table_name=TABLE_NAME,
schema_name=SCHEMA_NAME,
vector_size=768,
)
创建嵌入类实例¶
您可以使用任何Llama Index 嵌入模型。您可能需要启用 Vertex AI API 才能使用 VertexTextEmbeddings
。我们建议为生产环境设置嵌入模型的版本,了解有关文本嵌入模型的更多信息。
# enable Vertex AI API
!gcloud services enable aiplatform.googleapis.com
from llama_index.core import Settings
from llama_index.embeddings.vertex import VertexTextEmbedding
from llama_index.llms.vertex import Vertex
import google.auth
credentials, project_id = google.auth.default()
Settings.embed_model = VertexTextEmbedding(
model_name="textembedding-gecko@003",
project=PROJECT_ID,
credentials=credentials,
)
Settings.llm = Vertex(model="gemini-1.5-flash-002", project=PROJECT_ID)
初始化默认的 AlloyDBVectorStore¶
from llama_index_alloydb_pg import AlloyDBVectorStore
vector_store = await AlloyDBVectorStore.create(
engine=engine,
table_name=TABLE_NAME,
# schema_name=SCHEMA_NAME
)
下载数据¶
!mkdir -p 'data/paul_graham/'
!wget 'https://raw.githubusercontent.com/run-llama/llama_index/main/docs/docs/examples/data/paul_graham/paul_graham_essay.txt' -O 'data/paul_graham/paul_graham_essay.txt'
加载文档¶
from llama_index.core import SimpleDirectoryReader
documents = SimpleDirectoryReader("./data/paul_graham").load_data()
print("Document ID:", documents[0].doc_id)
与 VectorStoreIndex 一起使用¶
使用VectorStoreIndex
从向量存储创建索引。
使用文档初始化向量存储¶
使用向量存储最简单的方法是加载一组文档并使用 from_documents
从中构建索引。
from llama_index.core import StorageContext, VectorStoreIndex
storage_context = StorageContext.from_defaults(vector_store=vector_store)
index = VectorStoreIndex.from_documents(
documents, storage_context=storage_context, show_progress=True
)
查询索引¶
query_engine = index.as_query_engine()
response = query_engine.query("What did the author do?")
print(response)
from llama_index_alloydb_pg import Column
# Set table name
TABLE_NAME = "vectorstore_custom"
# SCHEMA_NAME = "my_schema"
await engine.ainit_vector_store_table(
table_name=TABLE_NAME,
# schema_name=SCHEMA_NAME,
vector_size=768, # VertexAI model: textembedding-gecko@003
metadata_columns=[Column("len", "INTEGER")],
)
# Initialize AlloyDBVectorStore
custom_store = await AlloyDBVectorStore.create(
engine=engine,
table_name=TABLE_NAME,
# schema_name=SCHEMA_NAME,
metadata_columns=["len"],
)
添加带元数据的文档¶
Document metadata
可以为 LLM 和检索过程提供更多信息。了解有关提取和添加元数据的不同方法。
from llama_index.core import Document
fruits = ["apple", "pear", "orange", "strawberry", "banana", "kiwi"]
documents = [
Document(text=fruit, metadata={"len": len(fruit)}) for fruit in fruits
]
storage_context = StorageContext.from_defaults(vector_store=custom_store)
custom_doc_index = VectorStoreIndex.from_documents(
documents, storage_context=storage_context, show_progress=True
)
使用元数据过滤器搜索文档¶
您可以通过指定 filters
参数对搜索结果应用预过滤
from llama_index.core.vector_stores.types import (
MetadataFilter,
MetadataFilters,
FilterOperator,
)
filters = MetadataFilters(
filters=[
MetadataFilter(key="len", operator=FilterOperator.GT, value="5"),
],
)
query_engine = custom_doc_index.as_query_engine(filters=filters)
res = query_engine.query("List some fruits")
print(str(res.source_nodes[0].text))
from llama_index_alloydb_pg.indexes import IVFFlatIndex
index = IVFFlatIndex()
await vector_store.aapply_vector_index(index)
ScaNN
索引的创建(仅在 AlloyDB Omni 中可用)需要足够的维护工作内存。在应用索引之前,您需要通过调用 set_maintenance_work_mem
来设置数据库标志 maintenance_work_mem
。
from llama_index_alloydb_pg.indexes import ScaNNIndex
VECTOR_SIZE = 768 # Replace with the vector size of your embedding model
index = ScaNNIndex(name="my_scann_index")
await vector_store.aset_maintenance_work_mem(index.num_leaves, VECTOR_SIZE)
await vector_store.aapply_vector_index(index)
重新索引¶
await vector_store.areindex() # Re-index using default index name
移除索引¶
await vector_store.adrop_vector_index() # Delete index using default name