实现Python代码以增强大型模型的检索功能
本篇文章给大家分享《实现Python代码以增强大型模型的检索功能》,覆盖了科技周边的常见基础知识,其实一个语言的全部知识点一篇文章是不可能说完的,但希望通过这些问题,让读者对自己的掌握程度有一定的认识(B 数),从而弥补自己的不足,更好的掌握它。
本文的首要关注点是RAG的概念和理论。接下来,我们将展示如何利用LangChain、OpenAI语言模型和Weaviate向量数据库来实现一个简单的RAG编排系统
检索增强生成是什么?
检索增强生成(RAG)这一概念是指通过外部知识源来为 LLM 提供附加的信息。这让 LLM 可以生成更准确和更符合上下文的答案,同时减少幻觉。
在进行内容重写时,需要将原文改写为中文,而无需出现原句
当前最佳的 LLM 都是使用大量数据训练出来的,因此其神经网络权重中存储了大量一般性知识(参数记忆)。但是,如果在通过 prompt 让 LLM 生成结果时需要其训练数据之外的知识(比如新信息、专有数据或特定领域的信息),就可能出现事实不准确的在进行内容重写时,需要将原文改写为中文,而无需出现原句(幻觉),如下截图所示:
因此,重要的是将LLM的一般知识与附加上下文结合起来,以便生成更准确且更符合上下文的结果,并减少幻觉
解决方案
传统上,我们可以通过微调模型来让神经网络适应特定领域或专有信息。尽管这种技术是有效的,但它需要大量的计算资源,成本高昂,并且需要技术专家的支持,因此很难快速适应不断变化的信息
2020 年,Lewis et al. 的论文《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》提出了一种更为灵活的技术:检索增强生成(RAG)。在这篇论文中,研究者将生成模型与一个检索模块组合到了一起;这个检索模块可以用一个更容易更新的外部知识源提供附加信息。
用大白话来讲:RAG 之于 LLM 就像开卷考试之于人类。在开卷考试时,学生可以携带教材和笔记等参考资料,他们可以从中查找用于答题的相关信息。开卷考试背后的思想是:这堂考试考核的重点是学生的推理能力,而不是记忆特定信息的能力。
同样,事实上的知识与 LLM 推理能力是不同的,并且可以存储在易于访问和更新的外部知识源中
- 参数化知识:在训练期间学习到的知识,以隐含的方式储存在神经网络权重之中。
- 非参数化知识:储存于外部知识源,比如向量数据库。
以下图表展示了最基本的RAG工作流程:
重新编写的内容:重建检索增强生成(RAG)的工作流程
- 检索:将用户查询用于检索外部知识源中的相关上下文。为此,要使用一个嵌入模型将该用户查询嵌入到同一个向量空间中,使其作为该向量数据库中的附加上下文。这样一来,就可以执行相似性搜索,并返回该向量数据库中与用户查询最接近的 k 个数据对象。
- 增强:然后将用户查询和检索到的附加上下文填充到一个 prompt 模板中。
- 生成:最后,将经过检索增强的 prompt 馈送给 LLM。
使用 LangChain 实现检索增强生成
下面将介绍如何通过 Python 实现 RAG 工作流程,这会用到 OpenAI LLM 以及 Weaviate 向量数据库和一个 OpenAI 嵌入模型。LangChain 的作用是编排。
请重新表达:必需的先决条件
请确保你已安装所需的 Python 软件包:
- langchain,编排
- openai,嵌入模型和 LLM
- weaviate-client,向量数据库
#!pip install langchain openai weaviate-client
另外,在根目录下用一个 .env 文件定义相关环境变量。你需要一个 OpenAI 账户来获取 OpenAI API Key,然后在 API keys(https://platform.openai.com/account/api-keys )「创建新的密钥」。
OPENAI_API_KEY="<your_openai_api_key>"</your_openai_api_key>
然后,运行以下命令来加载相关环境变量。
import dotenvdotenv.load_dotenv()
准备工作
在准备阶段,你需要准备一个作为外部知识源的向量数据库,用于保存所有的附加信息。这个向量数据库的构建包含以下步骤:
- 收集并载入数据
- 将文档分块
- 对文本块进行嵌入操作并保存
重写后的内容:首先,我们需要收集和加载数据。举个例子,如果我们想要使用拜登总统2022年的国情咨文作为附加上下文,LangChain的GitHub库提供了该文件的原始文本文档。为了加载这些数据,我们可以利用LangChain内置的多种文档加载工具。一个文档(Document)由文本和元数据构成的词典。要加载文本,可以使用LangChain的TextLoader工具
原始文档地址:https://raw.githubusercontent.com/langchain-ai/langchain/master/docs/docs/modules/state_of_the_union.txt
import requestsfrom langchain.document_loaders import TextLoaderurl = "https://raw.githubusercontent.com/langchain-ai/langchain/master/docs/docs/modules/state_of_the_union.txt"res = requests.get(url)with open("state_of_the_union.txt", "w") as f:f.write(res.text)loader = TextLoader('./state_of_the_union.txt')documents = loader.load()
接下来,将文档分块。因为文档的原始状态很长,无法放入 LLM 的上下文窗口,所以就需要将其拆分成更小的文本块。LangChain 也有很多内置的拆分工具。对于这个简单示例,我们可以使用 CharacterTextSplitter,其 chunk_size 设为 500,chunk_overlap 设为 50,这样可以保持文本块之间的文本连续性。
from langchain.text_splitter import CharacterTextSplittertext_splitter = CharacterTextSplitter(chunk_size=500, chunk_overlap=50)chunks = text_splitter.split_documents(documents)
最后,对文本块进行嵌入操作并保存。为了让语义搜索能够跨文本块执行,就需要为每个文本块生成向量嵌入,并将它们与它们的嵌入保存在一起。为了生成向量嵌入,可以使用 OpenAI 嵌入模型;至于储存,则可使用 Weaviate 向量数据库。通过调用 .from_documents (),可以自动将文本块填充到向量数据库中。
from langchain.embeddings import OpenAIEmbeddingsfrom langchain.vectorstores import Weaviateimport weaviatefrom weaviate.embedded import EmbeddedOptionsclient = weaviate.Client(embedded_options = EmbeddedOptions())vectorstore = Weaviate.from_documents(client = client,documents = chunks,embedding = OpenAIEmbeddings(),by_text = False)
步骤 1:检索
填充完向量数据库后,我们可以将其定义为一个检索器组件,该组件可以根据用户查询和嵌入块之间的语义相似性获取附加上下文
retriever = vectorstore.as_retriever()
步骤 2:增强
from langchain.prompts import ChatPromptTemplatetemplate = """You are an assistant for question-answering tasks. Use the following pieces of retrieved context to answer the question. If you don't know the answer, just say that you don't know. Use three sentences maximum and keep the answer concise.Question: {question} Context: {context} Answer:"""prompt = ChatPromptTemplate.from_template(template)print(prompt)
接下来,为了使用附加上下文增强 prompt,需要准备一个 prompt 模板。如下所示,使用 prompt 模板可以轻松地定制 prompt。
步骤 3:生成
最终,我们可以为这个 RAG 流程建立一个思维链,将检索器、prompt 模板和 LLM 链接在一起。一旦定义完成 RAG 链,就可以调用它
from langchain.chat_models import ChatOpenAIfrom langchain.schema.runnable import RunnablePassthroughfrom langchain.schema.output_parser import StrOutputParserllm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)rag_chain = ({"context": retriever,"question": RunnablePassthrough()} | prompt | llm| StrOutputParser() )query = "What did the president say about Justice Breyer"rag_chain.invoke(query)"The president thanked Justice Breyer for his service and acknowledged his dedication to serving the country. The president also mentioned that he nominated Judge Ketanji Brown Jackson as a successor to continue Justice Breyer's legacy of excellence."
下图展示了这个具体示例的 RAG 流程:
总结
本文介绍了 RAG 的概念,其最早来自 2020 年的论文《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》。在介绍了 RAG 背后的理论(包括动机和解决方案)之后,本文又介绍了如何用 Python 实现它。本文展示了如何使用 OpenAI LLM 加上 Weaviate 向量数据库和 OpenAI 嵌入模型来实现一个 RAG 工作流程。其中 LangChain 的作用是编排。
以上就是《实现Python代码以增强大型模型的检索功能》的详细内容,更多关于AI,模型的资料请关注golang学习网公众号!

- 上一篇
- 微软发布 Azure ND H100 v5 虚拟机,配备 8 个英伟达 H100 GPU

- 下一篇
- 新的标题:揭晓!2023中国移动创客马拉松大赛智慧网络(AI)专题赛获奖名单公布
-
- 科技周边 · 人工智能 | 4小时前 | 安装教程 AI换脸 模型训练 数据准备 DeepFaceLab
- AI换脸教程:DeepFaceLab本地使用指南
- 436浏览 收藏
-
- 科技周边 · 人工智能 | 4小时前 |
- MAI-1Preview:微软端到端模型发布
- 209浏览 收藏
-
- 科技周边 · 人工智能 | 5小时前 |
- 豆包大模型如何助力AI菜谱推荐?方法解析
- 136浏览 收藏
-
- 科技周边 · 人工智能 | 5小时前 |
- PerplexityAI如何验证信息真实度
- 281浏览 收藏
-
- 科技周边 · 人工智能 | 6小时前 |
- AI创意灵感工具搭配豆包使用指南
- 201浏览 收藏
-
- 科技周边 · 人工智能 | 6小时前 |
- 豆包AI写日志技巧全解析
- 150浏览 收藏
-
- 科技周边 · 人工智能 | 6小时前 |
- Deepseek满血版+AIDungeon,开启故事新篇章
- 484浏览 收藏
-
- 科技周边 · 人工智能 | 7小时前 | 模型 安装指南 AI图像生成 提示词 StableDiffusion
- StableDiffusion安装使用教程及技巧分享
- 331浏览 收藏
-
- 科技周边 · 人工智能 | 7小时前 |
- 车圈打黑风暴,鸿蒙理想处理千账号引关注
- 344浏览 收藏
-
- 科技周边 · 人工智能 | 8小时前 |
- Claude个性化设置与用户画像构建教程
- 396浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 514次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- AI Mermaid流程图
- SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
- 237次使用
-
- 搜获客【笔记生成器】
- 搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
- 207次使用
-
- iTerms
- iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
- 241次使用
-
- TokenPony
- TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
- 201次使用
-
- 迅捷AIPPT
- 迅捷AIPPT是一款高效AI智能PPT生成软件,一键智能生成精美演示文稿。内置海量专业模板、多样风格,支持自定义大纲,助您轻松制作高质量PPT,大幅节省时间。
- 229次使用
-
- GPT-4王者加冕!读图做题性能炸天,凭自己就能考上斯坦福
- 2023-04-25 501浏览
-
- 单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖
- 2023-04-24 501浏览
-
- ChatGPT 真的会接管世界吗?
- 2023-04-13 501浏览
-
- VR的终极形态是「假眼」?Neuralink前联合创始人掏出新产品:科学之眼!
- 2023-04-30 501浏览
-
- 实现实时制造可视性优势有哪些?
- 2023-04-15 501浏览