当前位置:首页 > 文章列表 > 文章 > python教程 > 使用tqdm跟踪文件写入进度方法

使用tqdm跟踪文件写入进度方法

2025-07-13 20:45:30 0浏览 收藏

积累知识,胜过积蓄金银!毕竟在文章开发的过程中,会遇到各种各样的问题,往往都是一些细节知识点还没有掌握好而导致的,因此基础知识点的积累是很重要的。下面本文《用tqdm跟踪文件写入进度方法》,就带大家讲解一下知识点,若是你对本文感兴趣,或者是想搞懂其中某个知识点,就请你继续往下看吧~

使用tqdm追踪文件写入进度

本文详细介绍了如何利用Python的tqdm库来可视化文件操作的进度,特别是针对批量文件处理场景。我们将探讨tqdm在追踪文件写入或处理完成情况时的应用,而非单一写入操作的字节级进度。通过自定义迭代器函数,我们可以有效地聚合文件夹内所有文件的总大小,并以专业、清晰的方式展示处理进度,从而提升用户体验和脚本的实用性。

1. 理解进度条的需求与tqdm的适用性

在进行文件操作,尤其是批量处理文件(如加密、解密、压缩、传输等)时,用户通常希望看到操作的实时进度,而非仅仅等待程序完成。tqdm是一个功能强大且易于使用的Python库,能够为循环迭代器添加智能进度条。

原始需求是追踪file.write()操作的进度。然而,需要明确的是,Python的file.write(data)通常是一个原子操作,它一次性将所有数据写入文件。tqdm本身无法在单次write()调用内部追踪字节级别的进度。tqdm更适用于迭代过程,即在每次迭代完成时更新进度。

因此,对于文件操作的进度追踪,更实际和常见的做法是:

  1. 追踪多文件的整体处理进度:当处理一个文件夹中的多个文件时,每完成一个文件的处理,就更新一次进度条,累计已处理的文件大小。
  2. 追踪大文件的分块写入进度:如果一个文件非常大,且其写入操作可以被分解为多次小块写入,那么可以在每次小块写入后更新进度条。

本文将主要聚焦于第一种场景,即如何利用tqdm有效追踪文件夹内多个文件的处理进度。

2. 构建文件迭代器以获取总大小

为了使用tqdm显示总进度,我们首先需要知道所有待处理文件的总大小。这可以通过遍历目标文件夹及其子文件夹中的所有文件来实现。

import os
import time
from tqdm import tqdm

def iter_files(folder):
    """
    递归遍历指定文件夹中的所有文件,并生成每个文件的路径和大小。

    Args:
        folder (str): 待遍历的根文件夹路径。

    Yields:
        tuple: (文件大小, 文件路径)
    """
    for root, _, files in os.walk(folder):
        for file in files:
            file_path = os.path.join(root, file)
            # 尝试获取文件大小,如果遇到权限问题或其他错误则跳过
            try:
                file_size = os.path.getsize(file_path)
                yield file_size, file_path
            except OSError as e:
                print(f"警告: 无法访问文件 {file_path},已跳过。错误: {e}")
                continue

iter_files函数是一个生成器,它会逐个返回文件的大小和完整路径。这不仅可以用于计算总大小,也可以作为后续处理的输入。

3. 集成tqdm实现进度追踪

有了获取文件大小的迭代器,我们就可以将其与tqdm结合,创建一个能够追踪整体进度的迭代器。

def iter_with_progress(folder):
    """
    为指定文件夹中的文件处理过程添加tqdm进度条。

    Args:
        folder (str): 待处理的根文件夹路径。

    Yields:
        tuple: (完成回调函数, 文件大小, 文件路径)
    """
    # 第一次遍历,计算所有文件的总大小
    all_files_data = list(iter_files(folder))
    total_size = sum(s for s, _ in all_files_data)

    # 初始化tqdm进度条
    # unit='B' 表示单位是字节
    # total=total_size 设置总进度为所有文件总大小
    # unit_scale=True 自动缩放单位 (B, KB, MB, GB)
    # unit_divisor=1024 使用1024作为单位除数
    progress = tqdm(unit='B',
                    total=total_size,
                    unit_scale=True,
                    unit_divisor=1024,
                    desc="处理文件") # 进度条描述

    for size, file_path in all_files_data:
        # 定义一个lambda函数作为“完成回调”,用于在文件处理完成后更新进度条
        # 每次调用done(),进度条就会增加当前文件的大小
        done = lambda current_file_size=size: progress.update(current_file_size)
        yield done, size, file_path

    # 确保在所有文件处理完毕后关闭进度条
    progress.close()

iter_with_progress函数是核心。它首先通过调用iter_files获取所有文件信息并计算出总大小,然后用这个总大小初始化tqdm进度条。最关键的是,它在每次迭代时返回一个done回调函数。这个done函数是一个闭包,它捕获了当前文件的大小。当外部代码完成对当前文件的处理后,调用done()即可更新进度条。

4. 实际应用示例

现在,我们可以将上述函数应用于一个模拟的文件处理场景,例如文件加密或解密。

# 假设我们有一个名为 'test_data' 的文件夹,里面包含一些文件
# 在实际使用中,请替换为您的目标文件夹路径
# 例如: target_folder = 'C:\\Users\\YourUser\\Documents\\MyFiles'
# 为了演示,我们创建一个虚拟文件夹和文件
if not os.path.exists('test_data'):
    os.makedirs('test_data')
    with open('test_data/file1.txt', 'w') as f:
        f.write('This is file 1 content.' * 100)
    with open('test_data/file2.bin', 'wb') as f:
        f.write(os.urandom(5000)) # 5KB random data
    with open('test_data/file3.log', 'w') as f:
        f.write('Log entry\n' * 200)

target_folder = 'test_data' # 替换为你的目标文件夹

print(f"开始处理文件夹: {target_folder}")

# 遍历并处理文件
for done_callback, file_size, file_path in iter_with_progress(target_folder):
    print(f"\n正在模拟处理文件: {os.path.basename(file_path)} ({file_size} 字节)")

    # 在这里执行您的实际文件操作,例如加密、解密、复制等
    # 为了演示,我们用 time.sleep() 模拟耗时操作
    time.sleep(file_size / 10000.0) # 根据文件大小模拟处理时间

    # 当文件处理完成后,调用 done_callback 来更新进度条
    done_callback() 
    print(f"文件 {os.path.basename(file_path)} 处理完成。")

print("\n所有文件处理完毕!")

# 清理演示文件 (可选)
# import shutil
# shutil.rmtree('test_data')

在这个示例中,iter_with_progress返回的done_callback在每次文件处理完成后被调用。这使得tqdm能够精确地根据已处理文件的总大小来更新进度条,给用户提供清晰的整体进度反馈。

5. 注意事项与进阶

  • 权限问题:在遍历文件时,可能会遇到权限不足导致无法访问文件的情况。在iter_files函数中,我们已经添加了try-except块来捕获OSError并跳过此类文件,同时打印警告信息。

  • 内存消耗:如果文件夹中包含数百万个小文件,list(iter_files(folder))可能会消耗大量内存来存储所有文件路径和大小。对于极端情况,可以考虑分批处理或更复杂的迭代策略。

  • 单文件内部进度:如前所述,如果需要追踪单个大文件的字节级写入进度(例如,将一个大文件分块写入),你需要修改你的文件写入逻辑,将其分解为多次小块写入,并在每次小块写入后手动调用pbar.update(chunk_size)。例如:

    # 示例:追踪大文件分块写入进度
    # 假设 b85_bytes 是一个非常大的字节串
    # output_file 是一个已打开的文件对象
    
    chunk_size = 1024 * 1024 # 1MB
    total_bytes = len(b85_bytes)
    
    with tqdm(total=total_bytes, unit='B', unit_scale=True, desc="写入文件") as pbar:
        for i in range(0, total_bytes, chunk_size):
            chunk = b85_bytes[i:i + chunk_size]
            output_file.write(chunk)
            pbar.update(len(chunk))

    这种方式更符合原始问题中希望追踪output_file.write(b85_bytes)进度的意图,但它要求你能够将待写入的数据分块。如果b85encode一次性返回所有数据,那么你需要手动将其分块后迭代写入。

6. 总结

tqdm是一个强大的工具,可以显著提升命令行应用程序的用户体验。通过本文介绍的方法,你可以有效地为批量文件处理任务添加专业的进度条。核心思想是计算所有待处理项的总量,并确保在每次处理完成后更新tqdm实例。理解tqdm的工作原理以及其在不同场景下的适用性,是编写高效且用户友好的Python脚本的关键。

文中关于的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《使用tqdm跟踪文件写入进度方法》文章吧,也可关注golang学习网公众号了解相关技术文章。

Golang加权轮询负载均衡实现详解Golang加权轮询负载均衡实现详解
上一篇
Golang加权轮询负载均衡实现详解
PHP连接Oracle查询数据实战教程
下一篇
PHP连接Oracle查询数据实战教程
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • AI边界平台:智能对话、写作、画图,一站式解决方案
    边界AI平台
    探索AI边界平台,领先的智能AI对话、写作与画图生成工具。高效便捷,满足多样化需求。立即体验!
    412次使用
  • 讯飞AI大学堂免费AI认证证书:大模型工程师认证,提升您的职场竞争力
    免费AI认证证书
    科大讯飞AI大学堂推出免费大模型工程师认证,助力您掌握AI技能,提升职场竞争力。体系化学习,实战项目,权威认证,助您成为企业级大模型应用人才。
    421次使用
  • 茅茅虫AIGC检测:精准识别AI生成内容,保障学术诚信
    茅茅虫AIGC检测
    茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
    559次使用
  • 赛林匹克平台:科技赛事聚合,赋能AI、算力、量子计算创新
    赛林匹克平台(Challympics)
    探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
    660次使用
  • SEO  笔格AIPPT:AI智能PPT制作,免费生成,高效演示
    笔格AIPPT
    SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
    567次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码