使用Langchain 🦜🔗
LlamaIndex提供了用于Langchain代理的工具抽象以及内存模块。
工具抽象+内存模块的API参考在这里。
Llama Tool abstractions
LlamaIndex提供了工具抽象,因此您可以使用LlamaIndex与Langchain代理一起使用。
例如,您可以选择直接从QueryEngine
创建“Tool”,如下所示:
from llama_index.langchain_helpers.agents import IndexToolConfig, LlamaIndexTool
tool_config = IndexToolConfig(
query_engine=query_engine,
name=f"Vector Index",
description=f"useful for when you want to answer queries about X",
tool_kwargs={"return_direct": True}
)
tool = LlamaIndexTool.from_tool_config(tool_config)
您还可以选择提供一个LlamaToolkit
:
toolkit = LlamaToolkit(
index_configs=index_configs,
)
这样的工具包可以用于通过我们的create_llama_agent
和create_llama_chat_agent
命令创建下游基于Langchain的聊天代理:
from llama_index.langchain_helpers.agents import create_llama_chat_agent
agent_chain = create_llama_chat_agent(
toolkit,
llm,
memory=memory,
verbose=True
)
agent_chain.run(input="Query about X")
您可以在这里查看完整的教程笔记本。