你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测
怎么入门科技周边编程?需要学习哪些知识点?这是新手们刚接触编程时常见的问题;下面golang学习网就来给大家整理分享一些知识点,希望能够给初学者一些帮助。本篇文章就来介绍《你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测》,涉及到,有需要的可以收藏一下
在算力为王的时代,你的 GPU 可以顺畅的运行大模型(LLM)吗?
对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额外内存。不仅如此,模型在训练期间,KV 缓存、激活和量化都会占用大量内存。
我们不禁要问,能不能提前了解上述内存的占用情况。近几日,GitHub 上新出现了一个项目,可以帮你计算在训练或推理 LLM 的过程中需要多少 GPU 内存,不仅如此,借助该项目,你还能知道详细的内存分布情况、评估采用什么的量化方法、处理的最大上下文长度等问题,从而帮助用户选择适合自己的 GPU 配置。
项目地址:https://github.com/RahulSChand/gpu_poor
不仅如此,这个项目还是可交互的,如下所示,它能计算出运行 LLM 所需的 GPU 内存,简单的就像填空题一样,用户只需输入一些必要的参数,最后点击一下蓝色的按钮,答案就出来了。
交互地址:https://rahulschand.github.io/gpu_poor/
最终的输出形式是这样子的:
{"Total": 4000,"KV Cache": 1000,"Model Size": 2000,"Activation Memory": 500,"Grad & Optimizer memory": 0,"cuda + other overhead":500}
至于为什么要做这个项目,作者 Rahul Shiv Chand 表示,有以下原因:
- 在 GPU 上运行 LLM 时,应该采用什么的量化方法来适应模型;
- GPU 可以处理的最大上下文长度是多少;
- 什么样的微调方法比较适合自己?Full? LoRA? 还是 QLoRA?
- 微调期间,可以使用的最大 batch 是多少;
- 到底是哪项任务在消耗 GPU 内存,该如何调整,从而让 LLM 适应 GPU。
那么,我们该如何使用呢?
首先是对模型名称、ID 以及模型尺寸的处理。你可以输入 Huggingface 上的模型 ID(例如 meta-llama/Llama-2-7b)。目前,该项目已经硬编码并保存了 Huggingface 上下载次数最多的 top 3000 LLM 的模型配置。
如果你使用自定义模型或 Hugginface ID 不可用,这时你需要上传 json 配置(参考项目示例)或仅输入模型大小(例如 llama-2-7b 为 70 亿)就可以了。
接着是量化,目前该项目支持 bitsandbytes (bnb) int8/int4 以及 GGML(QK_8、QK_6、QK_5、QK_4、QK_2)。后者仅用于推理,而 bnb int8/int4 可用于训练和推理。
最后是推理和训练,在推理过程中,使用 HuggingFace 实现或用 vLLM、GGML 方法找到用于推理的 vRAM;在训练过程中,找到 vRAM 进行全模型微调或使用 LoRA(目前项目已经为 LoRA 配置硬编码 r=8)、QLoRA 进行微调。
不过,项目作者表示,最终结果可能会有所不同,具体取决于用户模型、输入的数据、CUDA 版本以及量化工具等。实验中,作者试着把这些因素都考虑在内,并确保最终结果在 500MB 以内。下表是作者交叉检查了网站提供的 3b、7b 和 13b 模型占用内存与作者在 RTX 4090 和 2060 GPU 上获得的内存比较结果。所有值均在 500MB 以内。
感兴趣的读者可以亲自体验一下,假如给定的结果不准确,项目作者表示,会对项目进行及时优化,完善项目。
今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

- 上一篇
- 在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细

- 下一篇
- 整体效率提升350%,大族协作机器人赋能超硬刀具磨床自动上下料
-
- 科技周边 · 人工智能 | 6分钟前 |
- 豆包AI冷知识:手把手教你神图生成法,轻松蹭热点涨粉80%
- 397浏览 收藏
-
- 科技周边 · 人工智能 | 21分钟前 | 代码优化 argparse 豆包AI 需求明确 Python命令行工具
- 手把手教学!用豆包AI快速创建属于你的Python命令行工具
- 335浏览 收藏
-
- 科技周边 · 人工智能 | 31分钟前 |
- 豆包AI手把手教你用AI搭建gRPC服务,微服务通信超简单!
- 456浏览 收藏
-
- 科技周边 · 人工智能 | 41分钟前 |
- 豆包AI手把手教你用Hadoop+Spark轻松搞定大数据分析(小白速来!)
- 231浏览 收藏
-
- 科技周边 · 人工智能 | 43分钟前 |
- 即梦AI这样调音频同步,手把手教你声画对齐!
- 296浏览 收藏
-
- 科技周边 · 人工智能 | 53分钟前 |
- 豆包AI出品|手把手教你用Python做推荐系统,小白也能一看就会
- 432浏览 收藏
-
- 科技周边 · 人工智能 | 56分钟前 |
- 手把手教你用豆包AI搞定时间序列预测!超详细实操教程
- 404浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 茅茅虫AIGC检测
- 茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
- 92次使用
-
- 赛林匹克平台(Challympics)
- 探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
- 100次使用
-
- 笔格AIPPT
- SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
- 103次使用
-
- 稿定PPT
- 告别PPT制作难题!稿定PPT提供海量模板、AI智能生成、在线协作,助您轻松制作专业演示文稿。职场办公、教育学习、企业服务全覆盖,降本增效,释放创意!
- 99次使用
-
- Suno苏诺中文版
- 探索Suno苏诺中文版,一款颠覆传统音乐创作的AI平台。无需专业技能,轻松创作个性化音乐。智能词曲生成、风格迁移、海量音效,释放您的音乐灵感!
- 97次使用
-
- GPT-4王者加冕!读图做题性能炸天,凭自己就能考上斯坦福
- 2023-04-25 501浏览
-
- 单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖
- 2023-04-24 501浏览
-
- ChatGPT 真的会接管世界吗?
- 2023-04-13 501浏览
-
- VR的终极形态是「假眼」?Neuralink前联合创始人掏出新产品:科学之眼!
- 2023-04-30 501浏览
-
- 实现实时制造可视性优势有哪些?
- 2023-04-15 501浏览