Python实现文件断点续传教程
本文深入解析了Python实现文件断点续传的关键技术,重点在于利用HTTP协议的Range请求头,实现客户端从上次中断处继续下载文件,避免重复传输,提高下载效率。文章详细讲解了如何通过Python的requests库构建带Range请求头的HTTP请求,处理服务器返回的206 Partial Content状态码,以及Content-Range响应头,从而实现断点续传的核心逻辑。此外,还探讨了判断服务器是否支持断点续传的方法,包括使用HEAD请求检查Accept-Ranges和Content-Length头部。同时,文章还分享了断点续传过程中可能遇到的挑战,如服务器不支持Range请求、网络中断、文件完整性校验、文件在服务器端发生变化等,并提供了相应的应对策略,旨在帮助开发者构建健壮、高效的Python断点续传下载器。
Python实现文件断点续传的关键在于利用HTTP协议的Range请求头,通过1.检查本地文件大小确定下载起点;2.在请求头中添加Range字段如bytes=1024-以请求指定字节范围;3.发送请求后根据状态码判断服务器支持情况,206表示支持断点续传,200则需重新下载;4.解析Content-Range响应头获取文件总大小并校验续传一致性;5.以追加模式写入数据并实时更新进度;6.结合HEAD请求预判服务器是否支持Accept-Ranges: bytes及Content-Length;7.加入异常处理、重试机制与网络中断恢复策略;8.通过ETag或Last-Modified配合If-Range防止服务器文件变更导致的下载错乱;9.确保流式下载stream=True和分块读取iter_content以节省内存;10.最终完成下载后建议进行文件完整性校验,整个过程需兼顾服务器兼容性与系统健壮性,从而实现高效可靠的断点续传功能。
Python实现文件断点续传,主要依赖于HTTP协议的Range
请求头。这个机制允许客户端请求文件的一部分内容,而不是下载整个文件。当下载中断后,我们可以根据已下载的文件大小,向服务器发起新的请求,从中断处继续获取数据,从而避免重复下载已有的部分,极大提升下载效率和用户体验。
解决方案
要实现断点续传,我们首先得理解HTTP的几个关键点。最核心的就是Range
请求头,比如Range: bytes=1024-
就表示从文件的第1024字节开始下载到文件末尾。服务器如果支持,会返回206 Partial Content
状态码,并在响应头中包含Content-Range
,告诉你这次传输的是哪一部分,以及文件的总大小。如果服务器返回200 OK
,那就说明它不鸟你的Range
请求,直接把整个文件又发过来了,这时候你就得做好重新下载的准备了。
具体来说,实现这个功能,我们需要:
- 检查本地文件状态: 在开始下载前,先看看本地是不是已经有这个文件了?如果有,它有多大?这个大小就是我们下次请求的起点。
- 构建HTTP请求: 使用Python的
requests
库(或者其他HTTP客户端库),在请求头里加上Range
,例如headers={'Range': f'bytes={已下载大小}-'}
。 - 处理服务器响应:
- 如果状态码是
206 Partial Content
,恭喜你,服务器支持,你可以把这次收到的数据追加到现有文件末尾。 - 如果状态码是
200 OK
,这意味着服务器不接受Range
请求,或者干脆忽略了它,直接把整个文件又发过来了。这时候,你可能需要决定是覆盖现有文件,还是放弃断点续传,重新下载。 - 如果遇到其他错误状态码,比如
404 Not Found
或500 Internal Server Error
,那就得处理异常了。
- 如果状态码是
- 写入文件: 将接收到的数据块以追加模式写入本地文件。
- 循环与重试: 网络下载嘛,总会遇到各种幺蛾子。所以,需要一个循环来持续下载,直到文件完整。同时,加入适当的重试机制,比如网络瞬断了,等几秒再试。
说实话,我最初接触这个的时候,觉得概念挺简单,不就是加个头嘛。但实际写起来,你会发现各种边缘情况和服务器行为差异才是真正的挑战。
如何判断服务器是否支持断点续传?
这是个很实际的问题,毕竟不是所有服务器都那么“友好”。最直接的办法是发送一个HEAD
请求。HEAD
请求和GET
请求很像,但它只返回响应头,不返回实际内容,这对于我们判断服务器能力来说非常高效。
发送HEAD
请求后,你需要关注响应头中的两个关键信息:
Accept-Ranges
头部: 如果响应头中包含Accept-Ranges: bytes
,那恭喜你,服务器很可能支持字节范围请求。这意味着它能理解并处理你的Range
头。如果这个头是none
,或者干脆没有,那基本上就别指望它能断点续传了。Content-Length
头部: 这个头部会告诉你文件的总大小。即使服务器支持Range
,如果你不知道文件总大小,也无从判断下载是否完成。所以,这个信息也很重要。
我个人经验是,光看Accept-Ranges
还不够保险。有些服务器虽然宣称支持,但实际行为却很怪异。更稳妥的办法是,在真正开始下载前,尝试发送一个极小的Range
请求,比如Range: bytes=0-0
,然后检查返回的状态码是不是206 Partial Content
。如果是,那才真正说明它能干活。如果返回200 OK
,或者干脆报错,那说明这个服务器可能在Range
支持上有点“水分”。
Python实现断点续传的关键代码逻辑是什么?
使用requests
库来实现断点续传,核心逻辑其实并不复杂,但细节决定成败。
import requests import os import time def download_file_resumable(url, local_filename, chunk_size=8192): """ 实现文件的断点续传下载 """ if os.path.exists(local_filename): # 检查本地文件大小,作为续传的起点 downloaded_size = os.path.getsize(local_filename) mode = 'ab' # 追加模式 headers = {'Range': f'bytes={downloaded_size}-'} print(f"检测到本地文件 {local_filename},大小 {downloaded_size} 字节,尝试从此处续传。") else: downloaded_size = 0 mode = 'wb' # 写入模式 headers = {} print(f"本地无文件 {local_filename},将从头开始下载。") try: # 第一次请求,检查服务器是否支持Range # 实际下载时,可以先发HEAD请求判断,这里直接用GET并处理200/206 with requests.get(url, headers=headers, stream=True, timeout=30) as r: # 检查服务器是否支持断点续传,以及响应状态码 if r.status_code == 206: print("服务器支持断点续传 (206 Partial Content)。") # 确保Content-Range头存在且格式正确 content_range = r.headers.get('Content-Range') if content_range: # Content-Range: bytes 0-1023/10240 total_size_str = content_range.split('/')[-1] try: total_size = int(total_size_str) except ValueError: print("警告: 无法解析Content-Range中的总大小。") total_size = None else: print("警告: 206响应中缺少Content-Range头部。") total_size = None # 无法确定总大小,可能需要重新下载 # 如果本地文件大小与服务器响应的起始字节不符,可能需要重新下载 if total_size is not None and downloaded_size > 0 and downloaded_size != int(content_range.split(' ')[1].split('-')[0]): print("警告: 本地文件大小与服务器续传起始点不符,可能需要重新下载。") # 这里可以加入逻辑,比如删除本地文件,重新下载 # os.remove(local_filename) # return download_file_resumable(url, local_filename) # 重新调用 # 为了简化,这里选择继续,但用户需注意 pass elif r.status_code == 200: print("服务器不支持断点续传或忽略了Range请求 (200 OK),将重新下载整个文件。") # 如果是200,说明服务器发了整个文件,需要从头开始写入 mode = 'wb' downloaded_size = 0 total_size = int(r.headers.get('Content-Length', 0)) else: print(f"下载失败: 服务器返回状态码 {r.status_code}") return False # 获取文件总大小,用于进度显示 if total_size is None: # 尝试从Content-Length获取,如果206没有Content-Range total_size = int(r.headers.get('Content-Length', 0)) + downloaded_size # 对于206,Content-Length是剩余部分的大小 # 写入文件 with open(local_filename, mode) as f: for chunk in r.iter_content(chunk_size=chunk_size): if chunk: # 过滤掉保持连接的空数据块 f.write(chunk) downloaded_size += len(chunk) # 简单的进度显示 if total_size: progress = (downloaded_size / total_size) * 100 print(f"\r下载进度: {progress:.2f}% ({downloaded_size}/{total_size} 字节)", end='') else: print(f"\r已下载: {downloaded_size} 字节", end='') print(f"\n文件下载完成: {local_filename}") return True except requests.exceptions.RequestException as e: print(f"网络请求错误: {e}") return False except Exception as e: print(f"发生未知错误: {e}") return False # 示例使用 if __name__ == "__main__": # 找一个支持断点续传的URL,比如一些大型文件下载地址 # 注意:请替换为实际可用的URL test_url = "http://speedtest.tele2.net/1MB.zip" # 示例,可能会失效 # test_url = "https://example.com/some_large_file.zip" # 替换为你的文件URL output_file = "downloaded_file.zip" print(f"尝试下载: {test_url} 到 {output_file}") success = download_file_resumable(test_url, output_file) if success: print("下载任务成功完成。") else: print("下载任务失败。") # 模拟中断后再次运行,看是否能续传 # 可以手动中断程序后再次运行,或者在函数内部模拟中断(比如下载一部分后raise Exception) # print("\n模拟中断后再次尝试下载...") # time.sleep(2) # 模拟中断 # success_resume = download_file_resumable(test_url, output_file) # if success_resume: # print("续传任务成功完成。") # else: # print("续传任务失败。")
这段代码里,我尝试把可能遇到的状态都考虑进去。stream=True
是关键,它让requests
不会一次性把所有内容都下载到内存,而是流式传输,这对于大文件下载至关重要。iter_content
则允许我们分块处理数据,边下载边写入,进一步节省内存。我特别加了对Content-Range
的解析,因为206
响应的Content-Length
只表示本次传输的数据量,而不是文件总大小。
断点续传中可能遇到的挑战与应对策略
说实话,断点续传听起来美好,但实际应用中总会碰到一些“坑”,这就像你以为代码写完了,结果测试一跑,各种意想不到的边界条件就冒出来了。
- 服务器不支持
Range
请求: 这是最常见也是最无奈的情况。前面提过,通过HEAD
请求或小范围GET
请求可以判断。如果服务器确实不支持,那你的策略就得变成“全量下载”。这意味着,如果下载中断,就得从头再来。所以,你的下载器需要有这种降级能力,不能因为不支持续传就直接报错。 - 网络中断与重试: 网络波动是家常便饭。下载过程中,连接可能会断开。你需要实现一个健壮的重试机制,比如使用指数退避(Exponential Backoff)策略。第一次失败等1秒,第二次等2秒,第三次等4秒,以此类推,但要设定最大重试次数和最大等待时间,避免无限等待。
requests
库的Retry
适配器就能很好地处理这类问题。 - 文件完整性校验: 下载完成的文件,真的完整无损吗?或者说,续传过程中文件是否被意外截断或损坏?最可靠的方法是服务器提供文件的哈希值(如MD5、SHA256)。下载完成后,计算本地文件的哈希值并与服务器提供的进行比对。如果服务器不提供,至少也要检查下载的文件大小是否与
Content-Length
(如果知道总大小的话)匹配。 - 文件在服务器端发生变化: 你正在下载一个文件,结果服务器上的文件更新了。这时候,如果你继续续传,就会得到一个“拼接”后的文件,前半部分是旧的,后半部分是新的,这显然不是你想要的。HTTP协议提供了
ETag
和Last-Modified
头部来解决这个问题。在续传前,可以带上If-Range
请求头,值为上次下载时服务器返回的ETag
或Last-Modified
。如果文件在服务器端没有变化,服务器会返回206
;如果变化了,则返回200
,表示需要重新下载整个文件。这个细节,很多人在实现断点续传时容易忽略。 - 并发写入问题: 如果你的应用有多个线程或进程可能同时操作同一个下载文件,那就需要引入文件锁(如
threading.Lock
或fcntl
)来避免数据冲突和文件损坏。当然,更常见的做法是让一个下载任务只由一个线程/进程负责。 - 磁盘空间不足: 如果下载的是一个非常大的文件,最好在开始下载前检查一下目标磁盘是否有足够的空间。
Content-Length
头可以帮助你预估所需空间。
处理这些挑战,就像在修补一个漏水的桶,你得找到所有的洞,并用合适的材料堵上。这不仅仅是技术问题,更是一种对系统健壮性和用户体验的思考。
到这里,我们也就讲完了《Python实现文件断点续传教程》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于Python,断点续传,requests库,HTTPRange,文件完整性校验的知识点!

- 上一篇
- GoogleAI视频生文怎么用?实用教程分享

- 下一篇
- 剪映调整视频比例全攻略
-
- 文章 · python教程 | 8分钟前 |
- Python搭建简易HTTP服务器教程
- 295浏览 收藏
-
- 文章 · python教程 | 1小时前 | java php
- Python生成器表达式如何节省内存?
- 483浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python循环累加金额的正确方法
- 149浏览 收藏
-
- 文章 · python教程 | 1小时前 | 代码质量 代码可读性 自动化工具 PEP8 Python代码规范
- PEP8代码规范详解与实用技巧
- 334浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python装饰器详解与实战应用
- 425浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python电梯楼层控制:从0层开始实现
- 304浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Discord.py高效更新JSON,新增参数方法
- 112浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python嵌套循环优化技巧分享
- 478浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python小写转大写技巧分享
- 290浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python计算日期差,timedelta使用教程
- 423浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Pandas筛选数据方法详解
- 280浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- PandaWiki开源知识库
- PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
- 204次使用
-
- AI Mermaid流程图
- SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
- 997次使用
-
- 搜获客【笔记生成器】
- 搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
- 1025次使用
-
- iTerms
- iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
- 1032次使用
-
- TokenPony
- TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
- 1101次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览