当前位置:首页 > 文章列表 > 文章 > python教程 > LangChainRAGRetrievalQA调用错误解决方法

LangChainRAGRetrievalQA调用错误解决方法

2025-12-16 15:39:36 0浏览 收藏
推广推荐
免费电影APP ➜
支持 PC / 移动端,安全直达

大家好,我们又见面了啊~本文《LangChain RAG中RetrievalQA调用错误解决方法》的内容中将会涉及到等等。如果你正在学习文章相关知识,欢迎关注我,以后会给大家带来更多文章相关文章,希望我们能一起进步!下面就开始本文的正式内容~

解决LangChain RAG应用中RetrievalQA链的调用错误

本文旨在解决LangChain中构建RAG(检索增强生成)应用时,`RetrievalQA`链因不当调用方式引发的`TypeError: unhashable type: 'list'`错误。我们将详细解析错误原因,并提供使用`.invoke()`方法正确调用`RetrievalQA`链的解决方案,同时探讨LangChain Runnable接口的其他调用方式和相关最佳实践。

在构建基于大型语言模型(LLM)的检索增强生成(RAG)应用时,LangChain的RetrievalQA链是一个核心组件,它能够将文档检索与LLM的问答能力结合起来。然而,开发者在使用过程中可能会遇到TypeError: unhashable type: 'list'这样的错误,尤其是在尝试以传统函数调用的方式执行链时。本教程将深入分析这一问题,并提供一套专业的解决方案和最佳实践。

问题描述与错误分析

当尝试以如下方式调用一个已创建的RetrievalQA链时,可能会遇到TypeError: unhashable type: 'list'错误:

question = "Is probability a class topic?"
result = qa_chain({"query": question}) # 这一行会抛出错误
print(result["result"])

伴随的错误堆栈通常会指向LangChain内部的调用逻辑,最终显示TypeError: unhashable type: 'list'。这表明链的输入处理机制与预期的调用方式不符。

完整代码示例(导致错误):

from langchain.document_loaders import CSVLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM, pipeline
from langchain import HuggingFacePipeline
from langchain.prompts import PromptTemplate
from langchain.chains import RetrievalQA

# 文件路径和模型路径需要替换为实际路径
file = '<<path to CSV File>>'
modelPath = "<hugging face local folder>/all-MiniLM-L6-v2"
flan_t5_model_path = "<<huggingface local folder>>/flan-t5-large"

# 1. 加载文档
loader = CSVLoader(file_path=file, encoding='utf8')
documents = loader.load()

# 2. 分割文档
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=150)
docs = text_splitter.split_documents(documents)

# 3. 初始化嵌入模型
model_kwargs = {'device':'cpu'}
encode_kwargs = {'normalize_embeddings':False}
embeddings = HuggingFaceEmbeddings(
  model_name = modelPath,
  model_kwargs = model_kwargs,
  encode_kwargs=encode_kwargs
)

# 4. 构建向量存储
db = FAISS.from_documents(docs, embeddings)

# 5. 初始化LLM
tokenizer = AutoTokenizer.from_pretrained(flan_t5_model_path)
model = AutoModelForSeq2SeqLM.from_pretrained(flan_t5_model_path)
pipe = pipeline("text2text-generation", model=model, tokenizer=tokenizer)
llm = HuggingFacePipeline(
    pipeline = pipe,
    model_kwargs={"temperature": 0, "max_length": 512},
)

# 6. 定义Prompt Template
template = """Use the following pieces of context to answer the question at the end. If you don't know the answer, just say that you don't know, don't try to make up an answer. Keep the answer as concise as possible. 
{context}
Question: {question}
Helpful Answer:"""
QA_CHAIN_PROMPT = PromptTemplate.from_template(template)

# 7. 创建RetrievalQA链
qa_chain = RetrievalQA.from_chain_type(   
  llm=llm,
  verbose=True,
  chain_type="stuff",   
  retriever=db.as_retriever(),   
  chain_type_kwargs={"prompt": QA_CHAIN_PROMPT} 
) 

# 8. 尝试调用链 (此处发生错误)
question = "Is probability a class topic?"
result = qa_chain({"query": question }) # ERROR: TypeError: unhashable type: 'list'
print(result["result"])

错误原因:

这个错误通常发生在LangChain的版本迭代过程中,尤其是在引入LangChain Expression Language (LCEL) 和 Runnable 接口之后。旧版本的LangChain链可能允许直接像函数一样调用(即 chain(...)),但在新版本中,为了提供更统一、更灵活的接口,所有的“可运行”组件(Runnables)都推荐使用特定的方法进行调用,例如 .invoke()、.stream() 或 .batch()。

RetrievalQA链是一个Runnable实例,它不再直接支持通过 __call__ 方法以字典作为参数进行直接调用。尝试这样做会导致内部数据结构处理上的类型不匹配,从而引发TypeError。

解决方案:使用.invoke()方法

解决此问题的核心是使用LangChain Runnable接口提供的标准调用方法,特别是.invoke()。

正确调用RetrievalQA链的方法:

question = "Is probability a class topic?"
result = qa_chain.invoke({"query": question}) # 使用 .invoke() 方法
print(result["result"])

通过将 qa_chain({"query": question}) 修改为 qa_chain.invoke({"query": question}),即可正确执行链并获取结果。RetrievalQA链的输出是一个字典,其中包含最终的答案,通常通过 result["result"] 访问。

修正后的完整代码示例:

from langchain.document_loaders import CSVLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM, pipeline
from langchain import HuggingFacePipeline
from langchain.prompts import PromptTemplate
from langchain.chains import RetrievalQA

# 文件路径和模型路径需要替换为实际路径
file = '<<path to CSV File>>'
modelPath = "<hugging face local folder>/all-MiniLM-L6-v2"
flan_t5_model_path = "<<huggingface local folder>>/flan-t5-large"

# 1. 加载文档
loader = CSVLoader(file_path=file, encoding='utf8')
documents = loader.load()

# 2. 分割文档
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=150)
docs = text_splitter.split_documents(documents)

# 3. 初始化嵌入模型
model_kwargs = {'device':'cpu'}
encode_kwargs = {'normalize_embeddings':False}
embeddings = HuggingFaceEmbeddings(
  model_name = modelPath,
  model_kwargs = model_kwargs,
  encode_kwargs=encode_kwargs
)

# 4. 构建向量存储
db = FAISS.from_documents(docs, embeddings)

# 5. 初始化LLM
tokenizer = AutoTokenizer.from_pretrained(flan_t5_model_path)
model = AutoModelForSeq2SeqLM.from_pretrained(flan_t5_model_path)
pipe = pipeline("text2text-generation", model=model, tokenizer=tokenizer)
llm = HuggingFacePipeline(
    pipeline = pipe,
    model_kwargs={"temperature": 0, "max_length": 512},
)

# 6. 定义Prompt Template
template = """Use the following pieces of context to answer the question at the end. If you don't know the answer, just say that you don't know, don't try to make up an answer. Keep the answer as concise as possible. 
{context}
Question: {question}
Helpful Answer:"""
QA_CHAIN_PROMPT = PromptTemplate.from_template(template)

# 7. 创建RetrievalQA链
qa_chain = RetrievalQA.from_chain_type(   
  llm=llm,
  verbose=True,
  chain_type="stuff",   
  retriever=db.as_retriever(),   
  chain_type_kwargs={"prompt": QA_CHAIN_PROMPT} 
) 

# 8. 正确调用链
question = "Is probability a class topic?"
result = qa_chain.invoke({"query": question }) # 正确使用 .invoke()
print(result["result"])

LangChain Runnable接口的其他调用方法

除了.invoke(),LangChain的Runnable接口还提供了其他有用的调用方法,以适应不同的应用场景:

  • .invoke(input): 用于处理单个输入并返回单个输出。这是最常用的方法,适用于一次性问答、数据处理等。
  • .stream(input): 用于处理单个输入,但以流式方式返回输出。这对于需要实时显示LLM生成内容(如聊天机器人)的场景非常有用,可以逐字或逐块接收响应。
  • .batch(inputs): 用于同时处理多个输入(以列表形式提供),并返回一个包含所有对应输出的列表。这对于批量处理任务或提高吞吐量非常高效。

关于StrOutputParser的说明

在某些LangChain教程或示例中,你可能会看到StrOutputParser与llm结合使用,例如:

from langchain_core.output_parsers import StrOutputParser

# 假设 llm 是一个已初始化的语言模型Runnable
simple_chain = llm | StrOutputParser()
response = simple_chain.invoke("What is the capital of France?")
print(response) # 输出一个纯字符串

StrOutputParser是一个Runnable,它的作用是将上一个Runnable(通常是LLM)的输出解析成一个简单的字符串。LLM的原始输出可能是一个包含文本、元数据等信息的复杂对象,而StrOutputParser确保最终输出只是纯文本。

在本文的RetrievalQA链场景中,RetrievalQA链本身已经设计为返回一个字典,其中"result"键对应着LLM生成的答案字符串。因此,直接使用qa_chain.invoke({"query": question})["result"]即可获取所需的字符串答案。StrOutputParser并非解决RetrievalQA链调用错误的直接方案,但它在构建更复杂的LangChain Expression Language (LCEL) 链时,特别是需要确保LLM输出始终为纯字符串的场景下,是一个非常有用的组件。

总结与最佳实践

  1. 遵循LangChain Runnable接口规范:始终使用.invoke()、.stream()或.batch()等方法来调用LangChain的Runnables,而不是尝试直接将其作为函数调用。
  2. 查阅官方文档:LangChain的API更新频繁,遇到问题时,查阅最新的官方文档是解决问题的最佳途径。特别是关于Runnable接口和LCEL的部分,能帮助你更好地理解和使用LangChain。
  3. 理解链的输入和输出:清楚每个链或Runnable预期的输入类型(通常是字典或字符串)以及其输出结构,这有助于正确地构建和调试你的应用。RetrievalQA链通常需要一个包含"query"键的字典作为输入,并返回一个包含"result"键的字典作为输出。

通过遵循这些原则,你可以更有效地在LangChain中构建和维护健壮的RAG应用。

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

TikTok话题搜不到?优化技巧全解析TikTok话题搜不到?优化技巧全解析
上一篇
TikTok话题搜不到?优化技巧全解析
QCYT5对比荣耀EarbudsX1,哪款更实用?
下一篇
QCYT5对比荣耀EarbudsX1,哪款更实用?
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3319次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3530次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3562次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4682次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3935次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码