Contextual
Contextual #
基类: OpenAILike
使用 Contextual 的 Grounded Language Model (GLM) 生成响应,这是一种专门设计用于优先考虑对上下文内检索的忠实度而非参数化知识的 LLM,以减少检索增强生成 (RAG) 中的幻觉。
总请求不能超过 32,000 个 token。如有任何反馈或问题,请发送电子邮件至 [email protected]。
示例
pip install llama-index-llms-contextual
from llama_index.llms.contextual import Contextual
# Set up the Contextual class with the required model and API key
llm = Contextual(model="contextual-clm", api_key="your_api_key")
# Call the complete method with a query
response = llm.complete("Explain the importance of low latency LLMs")
print(response)
源代码位于 llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 |
|
class_name classmethod
#
class_name() -> str
获取类名。
源代码位于 llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
82 83 84 85 |
|
complete #
complete(prompt: str, knowledge: Optional[List[str]] = None, **kwargs) -> CompletionResponse
为给定提示生成补全。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
prompt
|
str
|
用于生成补全的输入提示。 |
必需的 |
**kwargs
|
API 请求的额外关键字参数。 |
{}
|
返回值
名称 | 类型 | 描述 |
---|---|---|
str |
CompletionResponse
|
生成的文本补全。 |
源代码位于 llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 |
|
chat #
chat(messages: List[ChatMessage], **kwargs) -> ChatResponse
为给定消息生成聊天响应。
源代码位于 llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 |
|
stream_chat #
stream_chat(messages: List[ChatMessage], **kwargs) -> ChatResponseGen
为给定消息生成聊天响应。
源代码位于 llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
132 133 134 135 136 137 |
|
stream_complete #
stream_complete(prompt: str, **kwargs) -> ChatResponseGen
为给定消息生成聊天响应。
源代码位于 llama-index-integrations/llms/llama-index-llms-contextual/llama_index/llms/contextual/base.py
139 140 141 142 143 144 |
|