Python文本文件读写技巧详解
大家好,我们又见面了啊~本文《Python读写文本文件技巧全解析》的内容中将会涉及到等等。如果你正在学习文章相关知识,欢迎关注我,以后会给大家带来更多文章相关文章,希望我们能一起进步!下面就开始本文的正式内容~
Python文件操作核心是open()函数和with语句,通过指定模式(如'r'、'w'、'a')和编码(如'utf-8'、'gbk')实现安全读写;使用with可自动关闭文件,避免资源泄漏;处理大文件时应逐行迭代或分块读取,防止内存溢出;需注意路径、权限和编码一致性,防止乱码或文件丢失。
Python读写文本文件,核心在于使用内置的open()
函数。它就像是文件操作的大门,通过不同的模式参数,我们可以告诉Python是要读取文件内容、写入新内容、追加内容,还是做更复杂的操作。理解这个函数及其搭配的上下文管理器with
语句,是高效且安全地处理文本文件的关键。
解决方案
在Python里,处理文本文件通常围绕着open()
函数展开。这个函数返回一个文件对象,我们通过它来执行读写操作。
最基础的用法是这样的:
# 写入文件 # 'w' 模式会创建新文件或覆盖已有文件 try: with open('my_document.txt', 'w', encoding='utf-8') as f: f.write("这是我写的第一行文本。\n") f.write("第二行内容也来了。\n") print("文件写入成功。") except IOError as e: print(f"写入文件时发生错误: {e}") # 读取文件 # 'r' 模式用于读取文件,如果文件不存在会抛出FileNotFoundError try: with open('my_document.txt', 'r', encoding='utf-8') as f: content = f.read() # 读取所有内容 print("\n读取到的文件内容:") print(content) except FileNotFoundError: print("文件不存在,无法读取。") except IOError as e: print(f"读取文件时发生错误: {e}") # 追加内容 # 'a' 模式会在文件末尾追加内容 try: with open('my_document.txt', 'a', encoding='utf-8') as f: f.write("这是追加的新内容。\n") print("\n内容追加成功。") except IOError as e: print(f"追加文件时发生错误: {e}") # 逐行读取 try: print("\n逐行读取文件内容:") with open('my_document.txt', 'r', encoding='utf-8') as f: for line_num, line in enumerate(f, 1): print(f"第{line_num}行: {line.strip()}") # strip() 去掉行尾的换行符 except FileNotFoundError: print("文件不存在,无法读取。") except IOError as e: print(f"读取文件时发生错误: {e}")
这里我强调一下with open(...) as f:
这种写法。它真的太重要了!它保证了文件无论在读写过程中是否发生错误,最终都会被正确关闭,释放系统资源。我早期写代码时,经常忘记f.close()
,结果就是文件句柄泄露,尤其是在循环里操作大量文件时,那真是个灾难。with
语句完美解决了这个问题,让代码更健壮、更简洁。
Python文件读写中的编码问题:为什么我的文本文件读出来是乱码?
这个问题,老实说,我一开始也踩过不少坑,尤其是和不同操作系统、不同语言环境打交道的时候。文件编码问题,本质上是字符和字节之间转换的“翻译”问题。我们看到的文本是字符,但计算机存储的是字节序列。如果编码和解码使用的规则不一致,那自然就成了乱码。
最常见的场景是:你在Windows系统用记事本保存了一个GBK编码的文本文件,然后用Python在Linux环境下,默认以UTF-8去读取它。结果就是一堆看不懂的字符。
解决办法其实很简单,就是明确指定open()
函数中的encoding
参数。
# 假设有一个GBK编码的文件 'gbk_test.txt' # 你可以手动创建一个,比如在Windows记事本里输入中文,然后“另存为”选择GBK编码 # gbk_test.txt 的内容可能是 "你好,世界!" # 错误示范:不指定编码或指定错误编码 try: with open('gbk_test.txt', 'r', encoding='utf-8') as f: content = f.read() print("尝试用UTF-8读取GBK文件(通常会乱码):") print(content) except UnicodeDecodeError as e: print(f"解码错误发生:{e}") except FileNotFoundError: print("文件不存在,请确保创建了gbk_test.txt") # 正确示范:指定正确的编码 try: with open('gbk_test.txt', 'r', encoding='gbk') as f: content = f.read() print("\n用GBK编码正确读取GBK文件:") print(content) except FileNotFoundError: print("文件不存在,请确保创建了gbk_test.txt") except Exception as e: print(f"读取时发生其他错误: {e}") # 写入文件时也同样重要,确保写入的编码和你期望的一致 try: with open('output_utf8.txt', 'w', encoding='utf-8') as f: f.write("这是一个UTF-8编码的文本。\n") print("\n成功写入UTF-8文件。") with open('output_gbk.txt', 'w', encoding='gbk') as f: f.write("这是一个GBK编码的文本。\n") print("成功写入GBK文件。") except Exception as e: print(f"写入文件时发生错误: {e}")
常用的编码有'utf-8'
(推荐,跨平台兼容性最好)、'gbk'
(中文Windows系统常见)、'latin-1'
(单字节编码,处理一些特殊字符或二进制数据时可能用到)。如果你不确定文件的编码,可以尝试一些库,比如chardet
,它能帮你猜测文件的编码,但这也不是100%准确的。最好的做法还是在文件创建时就约定好编码,或者在文档中明确指出。
Python大文件读写优化:如何高效处理TB级数据?
处理大文件,特别是那种GB甚至TB级别的文件,直接f.read()
把所有内容加载到内存里,那绝对是个糟糕的主意,分分钟内存溢出,程序崩溃。高效处理大文件的核心思想是:分块读取,流式处理,避免一次性加载全部内容。
Python的文件对象本身就是可迭代的(iterable),这意味着我们可以直接在for
循环中迭代它,每次读取一行内容,而不是一次性读取整个文件。
def process_large_file(filepath): line_count = 0 word_count = 0 char_count = 0 print(f"开始处理大文件: {filepath}") try: with open(filepath, 'r', encoding='utf-8') as f: for line in f: # 每次只读取一行 line_count += 1 char_count += len(line) word_count += len(line.split()) # 简单统计单词 # 这里可以对每一行进行具体的处理,比如解析、过滤、写入到另一个文件等 if line_count % 100000 == 0: # 每处理10万行打印一次进度 print(f"已处理 {line_count} 行...") print(f"\n文件处理完成。总行数: {line_count}, 总字数: {char_count}, 总词数: {word_count}") except FileNotFoundError: print(f"错误: 文件 '{filepath}' 不存在。") except Exception as e: print(f"处理文件时发生错误: {e}") # 示例:创建一个模拟的大文件 # 注意:实际生成一个GB级别的文件可能需要一些时间 # with open('large_data.txt', 'w', encoding='utf-8') as f: # for i in range(5000000): # 500万行 # f.write(f"这是第 {i+1} 行数据,包含一些随机的文本内容,用于测试大文件处理。\n") # print("模拟大文件 'large_data.txt' 创建完成。") # process_large_file('large_data.txt') # 实际运行时请取消注释
这种逐行读取的方式,内存占用非常小,因为它每次只在内存中保留一行数据。对于需要对文件内容进行复杂处理,但又不能一次性加载的情况,这无疑是最佳实践。
除了逐行读取,如果文件是结构化的,比如CSV或JSON,可以考虑使用相应的库(如csv
模块、json
模块)来流式解析,它们通常也提供了迭代器接口,避免一次性加载。
Python文件操作的常见陷阱与最佳实践:避免数据丢失和资源泄漏
文件操作看似简单,但实际开发中,一不小心就可能踩坑,导致数据丢失、程序崩溃,甚至系统资源耗尽。
忘记关闭文件句柄(或不使用
with
语句):这是最常见也最危险的错误。如果文件没有正确关闭,操作系统会一直认为这个文件被占用,可能导致其他程序无法访问,甚至文件损坏。在某些系统上,未关闭的文件句柄数量达到上限,程序会崩溃。- 最佳实践:始终使用
with open(...) as f:
语句。 它是Python处理文件I/O的黄金法则,能自动处理文件关闭,即使在读写过程中发生异常。
- 最佳实践:始终使用
路径问题:相对路径与绝对路径的混淆: 当你使用相对路径时,Python会相对于当前工作目录(current working directory)来查找文件。如果你从不同的位置运行脚本,或者脚本被其他程序调用,当前工作目录可能不是你预期的,导致
FileNotFoundError
。- 最佳实践:对于脚本依赖的固定文件,考虑使用绝对路径,或者基于脚本文件自身的路径来构建路径。
os.path
模块是你的好帮手。import os
获取当前脚本文件所在的目录
script_dir = os.path.dirname(os.path.abspath(file))
构建相对于脚本目录的文件路径
file_path = os.path.join(script_dir, 'data', 'my_data.txt') print(f"文件将查找或创建在: {file_path}")
确保目录存在
os.makedirs(os.path.dirname(file_path), exist_ok=True)
- 最佳实践:对于脚本依赖的固定文件,考虑使用绝对路径,或者基于脚本文件自身的路径来构建路径。
权限问题:在尝试写入文件到受保护的目录(如
/root
或C:\Program Files
)时,如果没有足够的权限,会遇到PermissionError
。- 最佳实践:确保程序运行的用户有足够的权限去读写目标文件或目录。或者,将文件保存到用户有权限的目录,如用户的主目录、临时目录或程序数据目录。
编码不一致导致乱码:前面已经详细讨论过。
- 最佳实践:在
open()
函数中明确指定encoding
参数,并尽量统一使用'utf-8'
编码。
- 最佳实践:在
覆盖文件而非追加:不小心使用
'w'
模式打开一个已存在的文件,会清空原有内容,造成数据丢失。- 最佳实践:在需要追加内容时,使用
'a'
模式。如果确实需要覆盖,确保这是你期望的行为,或者在覆盖前备份原文件。对于创建新文件,如果文件已存在则报错的场景,可以使用'x'
模式。
- 最佳实践:在需要追加内容时,使用
这些看似细枝末节的地方,往往是导致程序不稳定、数据错误的关键。养成良好的文件操作习惯,能省去后期大量的调试时间。
今天关于《Python文本文件读写技巧详解》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

- 上一篇
- Genmo生成视频教程全解析

- 下一篇
- 蚂蚁电竞七周年发布会:全球首台750Hz显示器登场
-
- 文章 · python教程 | 1分钟前 |
- Python如何查找子字符串?字符串查找方法全解析
- 148浏览 收藏
-
- 文章 · python教程 | 53分钟前 |
- Pandaspivot与向量化优化技巧
- 332浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python异步编程:async/await入门指南
- 379浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python异常处理详解:tryexcept用法全解析
- 130浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Pythonopenpyxl操作Excel教程
- 187浏览 收藏
-
- 文章 · python教程 | 1小时前 | Python 类方法
- Python类方法与静态方法区别解析
- 343浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- PythonVR开发环境搭建教程
- 133浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- 鸭子类型:Python多态的简单解释
- 242浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python正则匹配MAC地址教程
- 499浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python字典列表值对比与异常处理技巧
- 263浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python稀疏矩阵优化技巧:scipy.sparse实用方法
- 493浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- PandaWiki开源知识库
- PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
- 256次使用
-
- AI Mermaid流程图
- SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
- 1045次使用
-
- 搜获客【笔记生成器】
- 搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
- 1073次使用
-
- iTerms
- iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
- 1078次使用
-
- TokenPony
- TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
- 1147次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览