索引
Bases: BaseModel
参数
名称
类型 | 描述 | 默认值 | context_window |
---|---|---|---|
int | None
|
模型在生成响应时可以输入的总 token 数。
|
num_output |
3900
|
模型在生成响应时可以输出的 token 数。
|
模型在生成响应时可以输入的总 token 数。
|
num_input_files |
256
|
模型在生成响应时可以接受的输入文件数。
|
模型在生成响应时可以输入的总 token 数。
|
is_function_calling_model |
10
|
bool | None
|
如果模型支持函数调用消息,类似于 OpenAI 的函数调用 API,则设置为 True。例如,将“发送邮件给 Anya 询问她下周五是否想喝咖啡”转换为函数调用,如
|
False |
model_name
|
str
|
用于日志记录、测试和健全性检查的模型名称。对于某些模型,可以自动识别。对于其他模型,如本地加载的模型,必须手动指定。
|
'unknown' |
is_chat_model
|
bool
|
如果模型暴露聊天接口(即可以传递消息序列,而不是文本),类似于 OpenAI 的 /v1/chat/completions endpoint,则设置为 True。
|
源代码位于 |
model_name
|
MultiModalLLM #
36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 |
|
Bases: ChainableMixin
, BaseComponent
, DispatcherSpanMixin
多模态 LLM 接口。
callback_manager
名称
类型 | 描述 | 默认值 | context_window |
---|---|---|---|
CallbackManager
|
处理 LlamaIndex 中事件回调的 Callback Manager。
|
Callback manager 提供在事件开始/结束时调用 handler 的方法。 此外,Callback manager 追踪当前的事件堆栈。它通过使用几个关键属性来实现这一点。 - trace_stack - 当前尚未结束的事件堆栈。当事件结束时,它会从堆栈中移除。由于这是一个 contextvar,因此它对于每个线程/任务是唯一的。 - trace_map - 事件 ID 到其子事件的映射。在事件开始时,trace stack 的底部被用作 trace map 的当前父事件。 - trace_id - 当前 trace 的简单名称,通常表示入口点(查询、索引构建、插入等)。 参数: handlers (List[BaseCallbackHandler]): 要使用的 handler 列表。 用法: with callback_manager.event(CBEventType.QUERY) as event: event.on_start(payload={key, val}) ... event.on_end(payload={key, val}) <dynamic> |
metadata
|
MultiModalLLM #
81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 |
|
多模态 LLM 的 Completion endpoint。
complete(prompt: str, image_documents: List[ImageNode], **kwargs: Any) -> CompletionResponse
多模态 LLM 的流式 Completion endpoint。
stream_complete(prompt: str, image_documents: List[ImageNode], **kwargs: Any) -> CompletionResponseGen
多模态 LLM 的 Chat endpoint。
chat(messages: Sequence[ChatMessage], **kwargs: Any) -> ChatResponse
多模态 LLM 的流式 Chat endpoint。
stream_chat(messages: Sequence[ChatMessage], **kwargs: Any) -> ChatResponseGen
多模态 LLM 的异步 Completion endpoint。
acomplete(prompt: str, image_documents: List[ImageNode], **kwargs: Any) -> CompletionResponse
多模态 LLM 的异步流式 Completion endpoint。
astream_complete(prompt: str, image_documents: List[ImageNode], **kwargs: Any) -> CompletionResponseAsyncGen
多模态 LLM 的异步 Chat endpoint。
achat(messages: Sequence[ChatMessage], **kwargs: Any) -> ChatResponse
多模态 LLM 的异步流式 Chat endpoint。
astream_chat(messages: Sequence[ChatMessage], **kwargs: Any) -> ChatResponseAsyncGen
Bases: QueryComponent
基本 LLM 组件。
multi_modal_llm
名称
类型 | 描述 | 默认值 | context_window |
---|---|---|---|
LLM
|
metadata
|
必需 |
streaming |
流式模式
|
如果模型暴露聊天接口(即可以传递消息序列,而不是文本),类似于 OpenAI 的 /v1/chat/completions endpoint,则设置为 True。
|
set_callback_manager # |
model_name
|
MultiModalLLM #
187 188 189 190 191 192 193 194 195 |
|
Bases: BaseMultiModalComponent
多模态完成组件。
input_keys property
#
MultiModalLLM #
199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 |
|