当前位置:首页 > 文章列表 > 文章 > python教程 > Python轻松读写JSON、CSV与Excel教程

Python轻松读写JSON、CSV与Excel教程

2025-10-15 19:47:57 0浏览 收藏

哈喽!大家好,很高兴又见面了,我是golang学习网的一名作者,今天由我给大家带来一篇《Python轻松读写JSON CSV Excel教程》,本文主要会讲到等等知识点,希望大家一起学习进步,也欢迎大家关注、点赞、收藏、转发! 下面就一起来看看吧!

Python处理JSON、CSV和Excel文件需根据数据格式特性和需求选择合适库:JSON用内置json模块实现序列化与反序列化;CSV可用csv模块或pandas进行读写,后者更适用于表格数据操作;Excel文件通常用pandas(结合openpyxl引擎)高效处理多工作表和复杂结构,或用openpyxl进行精细单元格控制。

如何用Python读写JSON/CSV/Excel文件?

Python处理JSON、CSV和Excel文件,核心在于理解这些数据格式的结构特性,并选择合适的库进行数据的序列化(Python对象转文件格式)与反序列化(文件格式转Python对象)。对于JSON和CSV,Python提供了内置的jsoncsv模块;而对于Excel,通常我们会依赖强大的第三方库如pandasopenpyxl来高效且灵活地完成读写操作。选择哪个工具,往往取决于你的具体需求:是简单的数据交换,还是复杂的数据分析与处理。

解决方案

JSON文件读写

JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,易于人阅读和编写,也易于机器解析和生成。Python的json模块是处理JSON的标配。

  • 读取JSON文件:

    import json
    
    # 假设有一个名为'data.json'的文件
    # 内容可能像这样:{"name": "Alice", "age": 30, "isStudent": false, "courses": ["Math", "Physics"]}
    try:
        with open('data.json', 'r', encoding='utf-8') as f:
            data = json.load(f) # 从文件中加载JSON数据
        print("从JSON文件读取的数据:", data)
        print("Alice的年龄是:", data['age'])
    except FileNotFoundError:
        print("data.json 文件未找到。")
    except json.JSONDecodeError:
        print("data.json 文件格式不正确。")
    
    # 如果是JSON字符串,而不是文件
    json_string = '{"city": "New York", "population": 8000000}'
    data_from_string = json.loads(json_string) # 从字符串加载JSON数据
    print("从JSON字符串读取的数据:", data_from_string)
  • 写入JSON文件:

    import json
    
    new_data = {
        "name": "Bob",
        "age": 25,
        "isStudent": True,
        "grades": {"Math": "A", "English": "B+"}
    }
    
    with open('output.json', 'w', encoding='utf-8') as f:
        json.dump(new_data, f, ensure_ascii=False, indent=4) # 写入JSON数据到文件
    print("数据已写入 output.json 文件。")
    
    # 转换为JSON字符串
    json_output_string = json.dumps(new_data, ensure_ascii=False, indent=4)
    print("转换为JSON字符串:\n", json_output_string)

    ensure_ascii=False 允许非ASCII字符直接写入,而indent=4则让输出的JSON格式化,更易读。

CSV文件读写

CSV(Comma Separated Values)是一种纯文本文件,以逗号分隔值来存储表格数据。Python内置的csv模块非常适合处理这类文件,而pandas则提供了更高级、更便捷的接口。

  • 使用csv模块读取CSV文件:

    import csv
    
    # 假设有一个名为'students.csv'的文件
    # 内容可能像这样:
    # Name,Age,Major
    # Alice,20,Computer Science
    # Bob,22,Mathematics
    try:
        with open('students.csv', 'r', encoding='utf-8', newline='') as f:
            reader = csv.reader(f) # 创建一个reader对象
            header = next(reader) # 读取标题行
            print("CSV文件标题:", header)
            for row in reader:
                print("CSV文件行数据:", row)
    
        # 使用DictReader可以更方便地按字典形式访问数据
        with open('students.csv', 'r', encoding='utf-8', newline='') as f:
            dict_reader = csv.DictReader(f)
            for row_dict in dict_reader:
                print("CSV文件字典行数据:", row_dict['Name'], row_dict['Age'])
    except FileNotFoundError:
        print("students.csv 文件未找到。")
    except Exception as e:
        print(f"读取CSV文件时发生错误: {e}")

    newline=''参数很重要,它可以防止在Windows系统上写入时出现额外的空行。

  • 使用csv模块写入CSV文件:

    import csv
    
    data_to_write = [
        ['Name', 'Age', 'City'],
        ['Charlie', 28, 'London'],
        ['Diana', 35, 'Paris']
    ]
    
    with open('output.csv', 'w', encoding='utf-8', newline='') as f:
        writer = csv.writer(f) # 创建一个writer对象
        writer.writerows(data_to_write) # 写入多行
    print("数据已写入 output.csv 文件。")
    
    # 使用DictWriter写入
    data_dict_to_write = [
        {'Name': 'Eve', 'Age': 29, 'City': 'Berlin'},
        {'Name': 'Frank', 'Age': 40, 'City': 'Rome'}
    ]
    fieldnames = ['Name', 'Age', 'City'] # 必须指定字段名
    
    with open('output_dict.csv', 'w', encoding='utf-8', newline='') as f:
        dict_writer = csv.DictWriter(f, fieldnames=fieldnames)
        dict_writer.writeheader() # 写入标题行
        dict_writer.writerows(data_dict_to_write)
    print("字典数据已写入 output_dict.csv 文件。")
  • 使用pandas读写CSV文件:pandas是处理表格数据的利器,它将CSV文件直接映射到DataFrame对象,操作起来非常直观。

    import pandas as pd
    
    # 读取CSV文件
    try:
        df_csv = pd.read_csv('students.csv', encoding='utf-8')
        print("\n使用pandas读取CSV文件:\n", df_csv)
    except FileNotFoundError:
        print("students.csv 文件未找到。")
    
    # 写入CSV文件
    data_for_df = {'Name': ['Grace', 'Heidi'], 'Age': [24, 31], 'City': ['Tokyo', 'Sydney']}
    new_df_csv = pd.DataFrame(data_for_df)
    new_df_csv.to_csv('pandas_output.csv', index=False, encoding='utf-8') # index=False 不写入行索引
    print("使用pandas数据已写入 pandas_output.csv 文件。")

Excel文件读写

Excel文件(.xlsx, .xls)通常比CSV更复杂,因为它包含多个工作表、格式信息、公式等。pandasopenpyxl(主要用于.xlsx文件)是处理Excel的两种主要工具。

  • 使用pandas读写Excel文件:pandas在处理结构化数据时非常强大,读写Excel文件是其核心功能之一。

    import pandas as pd
    
    # 假设有一个名为'grades.xlsx'的Excel文件
    # 包含Sheet1和Sheet2,Sheet1有姓名和分数
    try:
        # 读取整个Excel文件,默认读取第一个工作表
        df_excel = pd.read_excel('grades.xlsx', engine='openpyxl')
        print("\n使用pandas读取Excel文件(默认第一个工作表):\n", df_excel)
    
        # 读取指定工作表
        df_sheet2 = pd.read_excel('grades.xlsx', sheet_name='Sheet2', engine='openpyxl')
        print("\n使用pandas读取Excel文件(指定Sheet2):\n", df_sheet2)
    except FileNotFoundError:
        print("grades.xlsx 文件未找到。")
    except Exception as e:
        print(f"读取Excel文件时发生错误: {e}")
    
    # 写入Excel文件
    data_for_excel = {
        'Product': ['Laptop', 'Mouse', 'Keyboard'],
        'Price': [1200, 25, 75],
        'Quantity': [10, 50, 30]
    }
    df_new_excel = pd.DataFrame(data_for_excel)
    
    # 写入到新的Excel文件
    df_new_excel.to_excel('pandas_products.xlsx', index=False, sheet_name='Inventory', engine='openpyxl')
    print("使用pandas数据已写入 pandas_products.xlsx 文件。")
    
    # 写入到现有Excel文件的不同工作表
    # 需要使用ExcelWriter
    with pd.ExcelWriter('pandas_products.xlsx', engine='openpyxl', mode='a') as writer:
        df_sheet2_data = pd.DataFrame({'City': ['Paris', 'London'], 'Population': [2141000, 8982000]})
        df_sheet2_data.to_excel(writer, sheet_name='Cities', index=False)
    print("新工作表 'Cities' 已添加到 pandas_products.xlsx。")

    注意engine='openpyxl'是推荐的写法,因为它支持.xlsx格式,并且是现代Excel文件的标准。

  • 使用openpyxl读写Excel文件:openpyxl提供了更底层的控制,你可以精确地操作工作簿、工作表和单元格。它非常适合那些不需要pandas的DataFrame结构,但需要精细控制Excel文件内容的场景。

    from openpyxl import Workbook, load_workbook
    
    # 写入Excel文件
    wb = Workbook() # 创建一个新的工作簿
    ws = wb.active # 获取活动工作表,默认名为'Sheet'
    ws.title = "Sales Data" # 重命名工作表
    
    # 写入标题行
    ws.append(['Date', 'Region', 'Amount'])
    # 写入数据
    ws.append(['2023-01-01', 'East', 100])
    ws.append(['2023-01-02', 'West', 150])
    
    # 创建另一个工作表
    ws2 = wb.create_sheet("Summary")
    ws2['A1'] = "Total Sales"
    ws2['B1'] = 250
    
    wb.save("openpyxl_sales.xlsx")
    print("使用openpyxl数据已写入 openpyxl_sales.xlsx 文件。")
    
    # 读取Excel文件
    try:
        wb_read = load_workbook("openpyxl_sales.xlsx")
        sheet_names = wb_read.sheetnames
        print("\n使用openpyxl读取Excel文件的工作表名称:", sheet_names)
    
        # 读取指定工作表
        sales_sheet = wb_read["Sales Data"]
        for row in sales_sheet.iter_rows(min_row=1, max_col=3, values_only=True):
            print("从Sales Data读取:", row)
    except FileNotFoundError:
        print("openpyxl_sales.xlsx 文件未找到。")

Python处理大型JSON/CSV/Excel文件时有哪些性能优化技巧?

在处理大型文件时,内存占用和处理速度往往成为瓶颈。我个人在处理GB级别的数据时,经常会遇到内存溢出或者程序运行缓慢的问题,这让我不得不深入思考如何优化。

对于JSON文件,如果文件非常大,一次性json.load()可能会耗尽内存。这时,可以考虑使用流式解析库,比如ijson。它不会一次性将整个JSON结构加载到内存中,而是像一个迭代器一样,逐个解析JSON中的元素。这对于处理日志文件或API响应中包含大量记录的超大JSON文件特别有用。虽然用起来比json模块稍微复杂一点,但当你面对内存墙时,它绝对是救星。

CSV文件的优化策略则更为多样。首先,pandas.read_csv()本身就非常高效,因为它底层是用C语言实现的。但即便如此,对于亿级行的数据,它也可能吃不消。这时,有几个办法:

  • chunksize参数: pd.read_csv('large.csv', chunksize=10000) 会返回一个迭代器,每次读取指定行数的数据块(DataFrame)。这样你可以逐块处理数据,而不是一次性加载所有。这就像吃一头大象,你得一口一口来。
  • usecols参数: 如果你只需要CSV文件中的几列,明确指定usecols=['col1', 'col2']可以显著减少内存占用,因为pandas只会加载你需要的列。
  • dtype参数: 提前指定列的数据类型(例如{'age': int, 'salary': float}),可以帮助pandas更有效地分配内存,避免默认的宽泛类型(如object)带来的额外开销。
  • 原生csv模块: 对于那些只需要简单行处理,不需要DataFrame复杂功能的场景,Python内置的csv模块在内存效率上可能更高,因为它每次只处理一行。

Excel文件的优化相对复杂一些,因为Excel文件本身就比CSV更重。

  • pandaschunksize 虽然pandas.read_excel()没有直接的chunksize参数,但你可以通过openpyxl先加载工作簿,然后逐行读取,再将这些行转换为小的DataFrame。不过,这会增加代码的复杂性。
  • usecolsdtype 同样适用于pandas.read_excel(),能有效减少内存。
  • openpyxl 当你需要对Excel文件进行非常精细的、非数据分析性质的操作时,openpyxl是更好的选择。它可以让你只加载特定的工作表,甚至只加载特定单元格区域,从而避免将整个工作簿加载到内存中。例如,load_workbook(filename, read_only=True)以只读模式打开,并且data_only=True可以只加载单元格的计算结果而不是公式,这在某些情况下也能节省资源。

总的来说,处理大型文件,核心思想就是“分而治之”——不要试图一次性加载所有数据,而是分块、按需加载,或者选择更内存高效的工具。

如何在Python中处理JSON/CSV/Excel文件的编码问题和异常?

编码问题和异常处理,这是我日常工作中经常遇到的“小麻烦”,尤其是在处理来自不同源的数据时。一个文件看起来正常,结果一读就报错UnicodeDecodeError,真是让人头大。

编码问题

Python 3默认使用UTF-8编码,这是好事,因为UTF-8是目前最通用的编码。但总有些老旧系统或特定软件会生成其他编码的文件,比如GBK、Latin-1、CP1252等。

  • open()函数的encoding参数: 这是解决编码问题的核心。无论是json.load()/dump()还是csv.reader()/writer(),它们都依赖于open()函数来处理文件。当你遇到UnicodeDecodeError时,首先尝试指定encoding参数。
    # 尝试多种编码
    encodings_to_try = ['utf-8', 'gbk', 'latin-1', 'cp1252']
    for enc in encodings_to_try:
        try:
            with open('some_file.csv', 'r', encoding=enc) as f:
                # 成功读取,进行后续处理
                print(f"文件成功以 {enc} 编码读取。")
                break
        except UnicodeDecodeError:
            print(f"尝试 {enc} 编码失败。")
        except FileNotFoundError:
            print("文件未找到。")
            break
    else:
        print("所有尝试的编码都失败了,文件可能使用了不常见的编码或已损坏。")
  • pandasencoding参数: pd.read_csv()pd.read_excel()也提供了encoding参数,用法类似。pd.read_csv('data.csv', encoding='gbk')
  • BOM(Byte Order Mark): 有时UTF-8文件会带BOM头,这可能会导致一些解析器出错。open()函数通常能自动处理UTF-8 BOM,但如果遇到问题,可以尝试encoding='utf-8-sig'

异常处理

健壮的代码必须能够优雅地处理错误,而不是直接崩溃。try-except块是你的好朋友。

  • FileNotFoundError 文件不存在是最常见的错误。

    try:
        with open('non_existent_file.txt', 'r') as f:
            content = f.read()
    except FileNotFoundError:
        print("错误:文件不存在,请检查路径。")
  • json.JSONDecodeError 当JSON文件内容不符合JSON格式规范时会抛出。

    import json
    try:
        json.loads('{"key": "value",}') # 逗号是错误的
    except json.JSONDecodeError as e:
        print(f"JSON解析错误: {e}")
  • csv.Error csv模块在遇到格式不正确的CSV行时可能会抛出此异常,例如引号不匹配。

    import csv
    from io import StringIO
    
    malformed_csv = StringIO('col1,col2\n"value1,value2\n') # 缺少结束引号
    try:
        reader = csv.reader(malformed_csv)
        for row in reader:
            print(row)
    except csv.Error as e:
        print(f"CSV格式错误: {e}")
  • pandasopenpyxl相关的异常:

    • BadZipFile (from zipfile module, often wrapped by openpyxl or pandas): 当Excel文件损坏或不是一个有效的zip文件时(.xlsx文件本质上是zip压缩包)。
    • KeyError: 尝试访问不存在的工作表名称或列名时。
    • IndexError: 尝试访问不存在的行或列索引时。
    • ValueError: 数据类型转换失败时。

我的经验是,不要害怕使用try-except。在关键的文件操作点,总是预设可能发生的错误,并给出有意义的反馈或回滚机制。这不仅让程序更稳定,也让调试变得更容易。

Python处理这些文件格式时,pandas与原生库(json/csv/openpyxl)的选择与权衡是什么?

这是一个很好的问题,因为我发现很多人在Python中处理数据时,要么无脑pandas,要么死守原生库,而没有真正理解它们各自的优势和适用场景。其实,这就像选择交通工具:去楼下便利店你不会开飞机,长途旅行你也不会步行。

原生库(json, csv, openpyxl)的优势与适用场景:

  • 精细控制与低开销: 原生库提供了对文件格式最直接、最底层的操作接口。你可以逐行、逐个字段地读取CSV,逐个键值对地处理JSON

今天关于《Python轻松读写JSON、CSV与Excel教程》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

记忆化如何提升JavaScript递归效率?记忆化如何提升JavaScript递归效率?
上一篇
记忆化如何提升JavaScript递归效率?
Golangsync.Pool优化对象创建性能
下一篇
Golangsync.Pool优化对象创建性能
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3176次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3388次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3417次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4522次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3796次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码