代理类#
AgentWorkflow #
继承自: Workflow
, PromptMixin
管理多个带交接代理的工作流。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 |
|
get_tools async
#
get_tools(agent_name: str, input_str: Optional[str] = None) -> Sequence[AsyncBaseTool]
获取给定代理的工具。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 |
|
init_run async
#
init_run(ctx: Context, ev: AgentWorkflowStartEvent) -> AgentInput
设置工作流并验证输入。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 |
|
setup_agent async
#
setup_agent(ctx: Context, ev: AgentInput) -> AgentSetup
主要代理处理逻辑。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 |
|
run_agent_step async
#
run_agent_step(ctx: Context, ev: AgentSetup) -> AgentOutput
运行代理。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 |
|
call_tool async
#
call_tool(ctx: Context, ev: ToolCall) -> ToolCallResult
调用工具并处理结果。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 |
|
aggregate_tool_results async
#
aggregate_tool_results(ctx: Context, ev: ToolCallResult) -> Union[AgentInput, StopEvent, None]
汇总工具结果并返回下一个代理输入。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 |
|
from_tools_or_functions classmethod
#
from_tools_or_functions(tools_or_functions: List[Union[BaseTool, Callable]], llm: Optional[LLM] = None, system_prompt: Optional[str] = None, state_prompt: Optional[Union[str, BasePromptTemplate]] = None, initial_state: Optional[dict] = None, timeout: Optional[float] = None, verbose: bool = False) -> AgentWorkflow
从工具或函数列表初始化 AgentWorkflow。
工作流将使用一个单一代理初始化,该代理使用提供的工具或函数。
如果 LLM 是函数调用模型,则工作流将使用 FunctionAgent。否则,将使用 ReActAgent。
源代码位于 llama-index-core/llama_index/core/agent/workflow/multi_agent_workflow.py
571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 |
|
BaseWorkflowAgent #
继承自: BaseModel
, PromptMixin
, ABC
所有代理的基类,结合了配置和逻辑。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
name
|
str
|
代理的名称 |
'Agent'
|
description
|
str
|
代理的功能和职责描述 |
'An agent that can perform a task'
|
system_prompt
|
str | None
|
代理的系统提示词 |
无
|
tools
|
List[Union[BaseTool, Callable]] | None
|
代理可以使用的工具 |
无
|
tool_retriever
|
ObjectRetriever | None
|
代理的工具检索器,可以代替工具提供 |
无
|
can_handoff_to
|
List[str] | None
|
此代理可以移交给的代理名称 |
无
|
llm
|
LLM
|
代理使用的 LLM |
<dynamic>
|
源代码位于 llama-index-core/llama_index/core/agent/workflow/base_agent.py
32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 |
|
validate_tools #
验证工具。
如果工具不是 BaseTool 类型,它们将被转换为 FunctionTools。这假定输入是工具或可调用函数。
源代码位于 llama-index-core/llama_index/core/agent/workflow/base_agent.py
59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 |
|
take_step abstractmethod
async
#
take_step(ctx: Context, llm_input: List[ChatMessage], tools: Sequence[AsyncBaseTool], memory: BaseMemory) -> AgentOutput
与代理一起执行一个单步。
源代码位于 llama-index-core/llama_index/core/agent/workflow/base_agent.py
98 99 100 101 102 103 104 105 106 |
|
handle_tool_call_results abstractmethod
async
#
handle_tool_call_results(ctx: Context, results: List[ToolCallResult], memory: BaseMemory) -> None
处理工具调用结果。
源代码位于 llama-index-core/llama_index/core/agent/workflow/base_agent.py
108 109 110 111 112 |
|
finalize abstractmethod
async
#
finalize(ctx: Context, output: AgentOutput, memory: BaseMemory) -> AgentOutput
完成代理的执行。
源代码位于 llama-index-core/llama_index/core/agent/workflow/base_agent.py
114 115 116 117 118 |
|
run abstractmethod
#
run(user_msg: Optional[Union[str, ChatMessage]] = None, chat_history: Optional[List[ChatMessage]] = None, memory: Optional[BaseMemory] = None, ctx: Optional[Context] = None, stepwise: bool = False, checkpoint_callback: Optional[CheckpointCallback] = None, **workflow_kwargs: Any) -> WorkflowHandler
运行代理。
源代码位于 llama-index-core/llama_index/core/agent/workflow/base_agent.py
120 121 122 123 124 125 126 127 128 129 130 131 |
|
FunctionAgent #
继承自: SingleAgentRunnerMixin
, BaseWorkflowAgent
函数调用代理实现。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
scratchpad_key
|
str
|
|
'scratchpad'
|
源代码位于 llama-index-core/llama_index/core/agent/workflow/function_agent.py
19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 |
|
take_step async
#
take_step(ctx: Context, llm_input: List[ChatMessage], tools: Sequence[AsyncBaseTool], memory: BaseMemory) -> AgentOutput
与函数调用代理一起执行一个单步。
源代码位于 llama-index-core/llama_index/core/agent/workflow/function_agent.py
24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 |
|
handle_tool_call_results async
#
handle_tool_call_results(ctx: Context, results: List[ToolCallResult], memory: BaseMemory) -> None
处理函数调用代理的工具调用结果。
源代码位于 llama-index-core/llama_index/core/agent/workflow/function_agent.py
87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 |
|
finalize async
#
finalize(ctx: Context, output: AgentOutput, memory: BaseMemory) -> AgentOutput
完成函数调用代理。
将所有进行中的消息添加到内存中。
源代码位于 llama-index-core/llama_index/core/agent/workflow/function_agent.py
117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 |
|
ReActAgent #
继承自: SingleAgentRunnerMixin
, BaseWorkflowAgent
React 代理实现。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
reasoning_key
|
str
|
|
'current_reasoning'
|
output_parser
|
ReActOutputParser
|
React 输出解析器 |
<llama_index.core.agent.react.output_parser.ReActOutputParser object at 0x7e52a4307f50>
|
formatter
|
ReActChatFormatter
|
用于将推理步骤和聊天历史格式化为 LLM 输入的 React 聊天格式化器。 |
<dynamic>
|
源代码位于 llama-index-core/llama_index/core/agent/workflow/react_agent.py
37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 |
|
take_step async
#
take_step(ctx: Context, llm_input: List[ChatMessage], tools: Sequence[AsyncBaseTool], memory: BaseMemory) -> AgentOutput
与 React 代理一起执行一个单步。
源代码位于 llama-index-core/llama_index/core/agent/workflow/react_agent.py
64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 |
|
handle_tool_call_results async
#
handle_tool_call_results(ctx: Context, results: List[ToolCallResult], memory: BaseMemory) -> None
处理 React 代理的工具调用结果。
源代码位于 llama-index-core/llama_index/core/agent/workflow/react_agent.py
179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 |
|
finalize async
#
finalize(ctx: Context, output: AgentOutput, memory: BaseMemory) -> AgentOutput
完成 React 代理。
源代码位于 llama-index-core/llama_index/core/agent/workflow/react_agent.py
208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 |
|
CodeActAgent #
继承自: SingleAgentRunnerMixin
, BaseWorkflowAgent
可以执行代码的工作流代理。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
scratchpad_key
|
str
|
|
'scratchpad'
|
code_execute_fn
|
Callable | Awaitable
|
用于执行代码的函数。必须提供才能执行代理生成的代码。函数协议如下:async def code_execute_fn(code: str) -> Dict[str, Any] |
required |
code_act_system_prompt
|
str | BasePromptTemplate
|
Code Act 代理的系统提示词。 |
'你是一个乐于助人的 AI 助手,可以编写并执行 Python 代码来解决问题。\n\n你将获得一个要执行的任务。你应该输出:\n- 用 <execute>...</execute> 标签包围的 Python 代码,提供任务的解决方案或解决方案的一步。任何你想从代码中提取的输出都应该打印到控制台。\n- 直接向用户显示的文本,如果你想询问更多信息或提供最终答案。\n- 如果之前的代码执行可以用于响应用户,则直接响应(通常你应该避免在响应中提及任何与代码执行相关的内容)。\n\n## 响应格式:\n正确代码格式示例:\n<execute>\nimport math\n\ndef calculate_area(radius):\n return math.pi * radius**2\n\n# Calculate the area for radius = 5\narea = calculate_area(5)\nprint(f"The area of the circle is {area:.2f} square units")\n</execute>\n\n除了 Python 标准库和你已经编写的任何函数之外,你还可以使用以下函数:\n{tool_descriptions}\n\n在之前代码片段的顶层定义的变量也可以在你的代码中引用。\n\n## 最终答案指南:\n- 提供最终答案时,重点是直接回答用户的问题\n- 除非明确要求,否则避免引用你生成的代码\n- 清晰简洁地呈现结果,就像是你直接计算出来的一样\n- 如果相关,可以简要提及使用的通用方法,但不要在最终答案中包含代码片段\n- 组织你的响应,就像是直接回答用户的查询,而不是解释你是如何解决的\n\n提醒:当你想运行代码时,始终将 Python 代码放在 <execute>...</execute> 标签之间。你可以在这些标签之外包含解释和其他内容。\n'
|
源代码位于 llama-index-core/llama_index/core/agent/workflow/codeact_agent.py
63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 |
|
take_step async
#
take_step(ctx: Context, llm_input: List[ChatMessage], tools: Sequence[AsyncBaseTool], memory: BaseMemory) -> AgentOutput
与 Code Act 代理一起执行一个单步。
源代码位于 llama-index-core/llama_index/core/agent/workflow/codeact_agent.py
190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 |
|
handle_tool_call_results async
#
handle_tool_call_results(ctx: Context, results: List[ToolCallResult], memory: BaseMemory) -> None
处理 Code Act 代理的工具调用结果。
源代码位于 llama-index-core/llama_index/core/agent/workflow/codeact_agent.py
311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 |
|
finalize async
#
finalize(ctx: Context, output: AgentOutput, memory: BaseMemory) -> AgentOutput
完成 Code Act 代理。
将所有进行中的消息添加到内存中。
源代码位于 llama-index-core/llama_index/core/agent/workflow/codeact_agent.py
341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 |
|
AgentInput #
继承自: Event
LLM 输入。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
input
|
list[ChatMessage]
|
|
required |
current_agent_name
|
str
|
|
required |
源代码位于 llama-index-core/llama_index/core/agent/workflow/workflow_events.py
8 9 10 11 12 |
|
AgentStream #
继承自: Event
代理流。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
delta
|
str
|
|
required |
response
|
str
|
|
required |
current_agent_name
|
str
|
|
required |
tool_calls
|
list[ToolSelection]
|
|
required |
raw
|
Any
|
|
required |
源代码位于 llama-index-core/llama_index/core/agent/workflow/workflow_events.py
22 23 24 25 26 27 28 29 |
|
AgentOutput #
继承自: Event
LLM 输出。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
response
|
ChatMessage
|
|
required |
tool_calls
|
list[ToolSelection]
|
|
required |
raw
|
Any
|
|
required |
current_agent_name
|
str
|
|
required |
源代码位于 llama-index-core/llama_index/core/agent/workflow/workflow_events.py
32 33 34 35 36 37 38 39 40 41 |
|
ToolCall #
继承自: Event
所有工具调用都被暴露。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
tool_name
|
str
|
|
required |
tool_kwargs
|
dict
|
|
required |
tool_id
|
str
|
|
required |
源代码位于 llama-index-core/llama_index/core/agent/workflow/workflow_events.py
44 45 46 47 48 49 |
|
ToolCallResult #
继承自: ToolCall
工具调用结果。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
tool_output
|
ToolOutput
|
|
required |
return_direct
|
bool
|
|
required |
源代码位于 llama-index-core/llama_index/core/agent/workflow/workflow_events.py
52 53 54 55 56 |
|