当前位置:首页 > 文章列表 > 文章 > python教程 > Python用pandas读取Excel教程

Python用pandas读取Excel教程

2025-09-18 18:16:45 0浏览 收藏

想要高效读取 Excel 文件,告别繁琐操作?本文为你详细解读 Python 中 Pandas 库的 `read_excel()` 函数。作为数据分析的利器,Pandas 结合 `openpyxl` 库,能轻松应对各种 Excel 文件,无论是指定 sheet 工作表、控制数据类型,还是处理缺失值,都能灵活实现。本文将深入讲解 `sheet_name`、`dtype`、`na_values` 等关键参数的用法,并提供实用技巧,教你如何跳过行、选择列,精准读取所需数据。更进一步,针对大型 Excel 文件,本文还将分享性能优化策略,包括精确选取所需列、合理定义数据类型,甚至将 Excel 转换为 CSV 文件,助你提升数据处理效率,让你的 Python 脚本飞起来!

使用pandas.read_excel()函数可高效读取Excel文件,需先安装pandas和openpyxl库。通过指定文件路径、sheet_name参数读取特定工作表或所有工作表,结合dtype和na_values参数控制数据类型与缺失值识别,利用skiprows、header、usecols和nrows等参数灵活选择数据范围。处理大型文件时,优化策略包括精确选取所需列、合理定义数据类型以降低内存占用,并可考虑将Excel转为CSV提升读取效率。

python如何使用pandas读取excel文件_pandas读取Excel文件实战教程

Python 中使用 Pandas 读取 Excel 文件,最核心且直接的方法就是利用 pandas.read_excel() 函数。它能轻松将 .xls.xlsx 格式的数据加载到 DataFrame 中,为后续的数据分析和处理打下基础。这个函数功能强大,能应对各种复杂的 Excel 文件结构,从最简单的单工作表读取到多工作表、指定行/列乃至数据类型控制,都能搞定。

解决方案

要开始,首先确保你已经安装了 Pandas 库,并且根据 Excel 文件格式,可能还需要安装 openpyxl (用于 .xlsx 文件) 或 xlrd (用于 .xls 文件)。通常,openpyxl 是推荐的,因为它支持较新的 Excel 格式。

安装方法: pip install pandas openpyxl

读取 Excel 文件的基本步骤非常简单:

  1. 导入 Pandas 库: 这是所有 Pandas 操作的第一步。
  2. 调用 pd.read_excel() 将你的 Excel 文件路径作为第一个参数传给它。
import pandas as pd

# 假设你的Excel文件名为 'sales_data.xlsx' 并且在当前工作目录下
try:
    df = pd.read_excel('sales_data.xlsx')
    print("文件读取成功!前5行数据如下:")
    print(df.head())
except FileNotFoundError:
    print("错误:文件未找到。请检查文件路径和文件名是否正确。")
except Exception as e:
    print(f"读取文件时发生错误: {e}")

# 如果是旧版 .xls 文件,可能需要 xlrd 引擎
# df_old_excel = pd.read_excel('legacy_data.xls', engine='xlrd')
# print("\n旧版Excel文件读取成功!")
# print(df_old_excel.head())

这个 pd.read_excel() 函数背后其实做了很多事情,它会尝试猜测文件的结构,比如哪一行是表头、哪些是数据。但实际工作中,Excel 文件往往不那么“标准”,所以我们需要掌握一些参数来精细控制读取过程。

Python Pandas 如何读取 Excel 文件中的特定工作表?

Excel 文件经常包含多个工作表(Sheet),而我们通常只关心其中一个或几个。pd.read_excel() 提供了一个 sheet_name 参数来处理这种情况,这在我看来是读取 Excel 时最常用也最重要的参数之一。

sheet_name 可以接受多种类型的值:

  • 字符串: 直接指定工作表的名称。
  • 整数: 指定工作表的索引(从 0 开始计数)。
  • None 读取所有工作表,结果会是一个字典,键是工作表名称,值是对应的 DataFrame。
  • 列表: 读取指定名称或索引的工作表列表,结果也是一个字典。
import pandas as pd

file_path = 'multi_sheet_data.xlsx'

# 假设 multi_sheet_data.xlsx 包含 'Sheet1', 'SalesData', 'Config' 三个工作表

# 1. 读取名为 'SalesData' 的工作表
try:
    df_sales = pd.read_excel(file_path, sheet_name='SalesData')
    print("\n读取 'SalesData' 工作表:")
    print(df_sales.head())
except Exception as e:
    print(f"读取 'SalesData' 时发生错误: {e}")

# 2. 读取第一个工作表(索引为 0)
try:
    df_first_sheet = pd.read_excel(file_path, sheet_name=0)
    print("\n读取第一个工作表(索引 0):")
    print(df_first_sheet.head())
except Exception as e:
    print(f"读取第一个工作表时发生错误: {e}")

# 3. 读取所有工作表
try:
    all_sheets = pd.read_excel(file_path, sheet_name=None)
    print("\n读取所有工作表,结果是一个字典:")
    for sheet_name, df in all_sheets.items():
        print(f"--- 工作表: {sheet_name} ---")
        print(df.head(2)) # 只打印前两行,避免输出过多
except Exception as e:
    print(f"读取所有工作表时发生错误: {e}")

# 4. 读取指定名称的多个工作表
try:
    selected_sheets = pd.read_excel(file_path, sheet_name=['SalesData', 'Config'])
    print("\n读取 'SalesData' 和 'Config' 两个工作表:")
    for sheet_name, df in selected_sheets.items():
        print(f"--- 工作表: {sheet_name} ---")
        print(df.head(2))
except Exception as e:
    print(f"读取指定多个工作表时发生错误: {e}")

在我看来,sheet_name=None 这种方式在探索一个不熟悉的 Excel 文件结构时特别有用,能让你一眼看到所有工作表的数据概貌。

Pandas 读取 Excel 时,如何有效处理数据类型和缺失值?

数据类型和缺失值是数据清洗过程中绕不开的两个大问题,在从 Excel 读取数据时,如果不加以控制,很容易出现意想不到的错误。Pandas 提供了 dtypena_values 参数来帮助我们预先处理这些问题。

数据类型 (dtype): Excel 单元格的格式并不总是能准确地映射到 Python 的数据类型。比如,一个全是数字的列,如果其中某个单元格被手动格式化为文本,Pandas 可能会将整个列都读作字符串(object 类型),这在后续的数值计算中会造成麻烦。使用 dtype 参数,我们可以强制指定某些列的数据类型。

dtype 接受一个字典,键是列名或列索引,值是 NumPy 或 Python 的数据类型。

缺失值 (na_values): Excel 中表示缺失值的方式多种多样,除了空白单元格,还可能有 "N/A", "-", "None" 等自定义标记。pd.read_excel() 默认会将空白单元格读取为 NaN (Not a Number),但对于自定义的缺失值标记,它就无能为力了。na_values 参数可以接受一个列表或字典,告诉 Pandas 哪些值应该被识别为 NaN

import pandas as pd
import numpy as np

file_path = 'data_with_issues.xlsx'

# 假设 data_with_issues.xlsx 包含:
# - 'OrderID' 列,可能被读成浮点数(如1001.0),我们希望是整数。
# - 'Price' 列,我们希望是浮点数。
# - 'Status' 列,某些单元格可能是 'N/A' 或 '-',我们希望识别为缺失值。
# - 'Notes' 列,可能有一些自定义的缺失值标记,如 '无'。

# 定义数据类型和缺失值
dtype_spec = {
    'OrderID': int,       # 确保 OrderID 是整数
    'Price': float,       # 确保 Price 是浮点数
    'Quantity': 'int64',  # 也可以用字符串形式
    'ProductCode': str    # 确保 ProductCode 是字符串
}

na_values_spec = [
    'N/A',                # 将 'N/A' 识别为 NaN
    '-',                  # 将 '-' 识别为 NaN
    '无',                 # 将 '无' 识别为 NaN
    'None'                # 有些 Excel 文件中 'None' 也是缺失值
]

try:
    df_clean = pd.read_excel(file_path,
                             dtype=dtype_spec,
                             na_values=na_values_spec)

    print("\n处理数据类型和缺失值后的 DataFrame:")
    print(df_clean.head())
    print("\n各列数据类型:")
    print(df_clean.dtypes)
    print("\n缺失值统计:")
    print(df_clean.isnull().sum())

except Exception as e:
    print(f"读取并处理数据时发生错误: {e}")

# 一个常见的场景是,Excel 中的整数列如果包含空白,Pandas 会自动将其转换为浮点数(如 1.0, NaN)。
# 如果我们希望保持整数类型并允许缺失值,可以使用 Pandas 的 nullable integer 类型:
# 'OrderID': pd.Int64Dtype()
# 这种类型在处理含有缺失值的整数列时非常有用。
# df_nullable_int = pd.read_excel(file_path, dtype={'OrderID': pd.Int64Dtype()})
# print("\n使用 nullable integer 后的 OrderID 类型:")
# print(df_nullable_int['OrderID'].dtype)

dtypena_values 组合使用,能大大减少后续数据清洗的工作量,尤其是在处理那些数据源不那么规范的 Excel 文件时,简直是神器。

在 Pandas 中,如何灵活控制 Excel 文件的读取范围,例如跳过行或指定列?

实际的 Excel 文件往往不只是纯粹的数据表格,可能包含标题、批注、汇总行等非数据内容,或者我们只对其中一部分列感兴趣。pd.read_excel() 提供了 skiprows, nrows, usecols, header 等参数,让我们能够精准地选择需要读取的数据区域。

跳过行 (skiprows): 这个参数非常实用,可以跳过文件开头的几行,或者跳过文件中的特定行。

  • 整数: 跳过文件开头的指定行数。
  • 列表: 跳过文件中指定索引的行(从 0 开始计数)。

指定表头 (header): 默认情况下,Pandas 认为第一行(索引 0)是表头。但如果你的表头在其他行,比如第 3 行,就需要通过 header 参数来指定。header 接受一个整数,表示作为表头的行索引。

读取指定行数 (nrows): 如果只想读取文件的前 N 行数据,可以使用 nrows 参数。这在处理大型文件时,用于快速预览数据结构非常方便。

选择特定列 (usecols): 我们不一定需要 Excel 文件中的所有列。usecols 参数可以让我们只读取感兴趣的列,这不仅能减少内存占用,还能加快读取速度。

  • 列表(字符串): 指定要读取的列名列表。
  • 列表(整数): 指定要读取的列索引列表。
  • 字符串: 指定一个列范围,如 'A:C' 或 'A,C,E'。
  • 可调用对象: 传入一个函数,该函数接收列名并返回 TrueFalse 来决定是否读取该列。
import pandas as pd

file_path = 'complex_layout_data.xlsx'

# 假设 complex_layout_data.xlsx 文件结构如下:
# - 前两行是报告标题和生成日期
# - 第 3 行是实际的列名(表头)
# - 数据从第 4 行开始
# - 我们只对 'Product', 'Quantity', 'Price' 这三列感兴趣
# - 文件可能包含很多行,但我们只想读取前 100 行数据

# 1. 跳过前两行,将第三行作为表头
try:
    df_skip_header = pd.read_excel(file_path,
                                   skiprows=2,       # 跳过前2行(索引0和1)
                                   header=0)         # 跳过之后的第一行(原文件的第3行)作为表头
    print("\n跳过前两行,并将第三行作为表头读取:")
    print(df_skip_header.head())
except Exception as e:
    print(f"读取时发生错误 (跳过行和表头): {e}")


# 2. 只读取 'Product', 'Quantity', 'Price' 三列,并限制行数
try:
    df_partial = pd.read_excel(file_path,
                               skiprows=2,
                               header=0,
                               usecols=['Product', 'Quantity', 'Price'], # 指定列名
                               nrows=10)                                 # 只读取数据的前10行
    print("\n只读取指定列和前10行数据:")
    print(df_partial)
except Exception as e:
    print(f"读取时发生错误 (指定列和行数): {e}")


# 3. 使用列索引来指定列(假设 Product 是第2列,Quantity是第3列,Price是第4列,从0开始)
try:
    df_col_index = pd.read_excel(file_path,
                                 skiprows=2,
                                 header=0,
                                 usecols=[1, 2, 3], # 读取索引为1, 2, 3的列
                                 nrows=5)
    print("\n使用列索引读取指定列和前5行数据:")
    print(df_col_index)
except Exception as e:
    print(f"读取时发生错误 (使用列索引): {e}")


# 4. 如果 Excel 文件中存在一些不规则的行,比如中间插入了批注行,可以使用 skiprows 列表
# 假设我们要跳过第0, 1, 5行(原文件中的行号)
# df_irregular_skip = pd.read_excel(file_path, skiprows=[0, 1, 5], header=0)
# print("\n跳过不规则行后的数据:")
# print(df_irregular_skip.head())

这些参数的组合使用,让 pd.read_excel() 变得异常灵活。在我自己的项目里,很多时候 Excel 文件都是由不同部门同事提供的,格式五花八门,这些参数就是我快速把数据整理成可用 DataFrame 的利器。

处理大型 Excel 文件时,Pandas 读取性能优化有哪些实用技巧?

处理小型 Excel 文件时,性能通常不是问题。但当文件大小达到几十甚至上百兆,包含几十万上百万行数据时,读取速度和内存占用就会变得很关键。虽然 pd.read_excel() 不像 pd.read_csv() 那样直接支持 chunksize 进行分块读取(它会将整个文件加载到内存),但我们仍然有一些策略可以优化其性能。

1. 精确指定 usecols 这是最直接也最有效的优化手段之一。如果你的 Excel 文件有几十上百列,但你只需要其中的几列,那么明确指定 usecols 可以显著减少内存占用和读取时间。Pandas 只需要解析和加载你指定的列数据,而不是整个表格。

2. 优化数据类型 (dtype): 如前所述,dtype 不仅能确保数据正确性,也能大幅优化内存使用。默认情况下,Pandas 可能会为数字列分配 float64,为字符串列分配 object。如果知道某些整数列不会有缺失值且数值范围不大,可以指定为 int32int16。字符串列如果只有少数几种固定值,可以考虑转换为 category 类型。

import pandas as pd
import time
import os

# 假设 large_data.xlsx 是一个非常大的文件
large_file_path = 'large_data.xlsx' # 请替换为你的大文件路径

# 创建一个模拟的大型Excel文件(如果不存在)
if not os.path.exists(large_file_path):
    print(f"正在创建模拟大型文件 '{large_file_path}',请稍候...")
    data = {
        'col_int': range(1_000_000),
        'col_float': [float(i) * 1.23 for i in range(1_000_000)],
        'col_str_short': [f'Item_{i%100}' for i in range(1_000_000)],
        'col_str_long': [f'This is a very long string for item {i}' for i in range(1_000_000)],
        'col_bool': [i % 2 == 0 for i in range(1_000_000)],
        'col_date': pd.to_datetime([f'2023-01-01'] * 1_000_000)
    }
    large_df_gen = pd.DataFrame(data)
    large_df_gen.to_excel(large_file_path, index=False, engine='openpyxl')
    print("模拟文件创建完成。")
else:
    print(f"文件 '{large_file_path}' 已存在,跳过创建。")


# 场景1:不进行任何优化,读取所有列
print("\n--- 场景1:不优化读取所有列 ---")
start_time = time.time()
try:
    df_unoptimized = pd.read_excel(large_file_path)
    end_time = time.time()
    print(f"读取耗时: {end_time - start_time:.2f} 秒")
    print(f"DataFrame 内存占用: {df_unoptimized.memory_usage(deep=True).sum() / (1024**2):.2f} MB")
except Exception as e:
    print(f"读取失败: {e}")


# 场景2:指定 usecols 和 dtype 进行优化
print("\n--- 场景2:使用 usecols 和 dtype 优化 ---")
optimized_dtype = {
    'col_int': 'int32',
    'col_float': 'float32',
    'col_str_short': 'category', # 如果字符串重复度高,category 很有用
    'col_bool': 'bool'
}
selected_cols = ['col_int', 'col_float', 'col_str_short', 'col_bool']

start_time = time.time()
try:
    df_optimized = pd.read_excel(large_file_path,
                                 usecols=selected_cols,
                                 dtype=optimized_dtype)
    end_time = time.time()
    print(f"读取耗时: {end_time - start_time:.2f} 秒")
    print(f"DataFrame 内存占用: {df_optimized.memory_usage(deep=True).sum() / (1024**2):.2f} MB")
except Exception as e:
    print(f"读取失败: {e}")

从上面的模拟测试中,你应该能直观感受到 usecolsdtype 对性能和内存的巨大影响。

3. 使用 nrows 进行抽样或分批处理: 虽然 read_excel 没有内置的 chunksize 迭代器,但如果你只需要文件的一部分数据进行分析,或者想分批处理(例如,每次读取几万行然后处理),可以使用 nrowsskiprows 组合来实现。这需要你手动循环,每次读取下一批数据。

4. 优先使用 openpyxl 引擎: 对于 .xlsx 格式的文件,openpyxl 是默认且推荐的引擎。它通常比 xlrd 更快,并且支持更多的 Excel 特性。你也可以显式指定 engine='openpyxl'

5. 考虑将 Excel 转换为 CSV: 如果 Excel 文件真的非常大,并且你的数据结构相对简单(没有复杂的公式、宏等),一个非常有效的策略是先将 Excel 文件转换为 CSV 文件。Pandas 读取 CSV 文件的效率远高于 Excel,因为它不需要解析复杂的二进制或 XML 结构。你可以使用 Excel 软件手动转换,或者用 openpyxl 库在 Python 中实现转换。

在我看来,处理大型数据时,数据类型和列选择的精细控制是避免内存溢出和提高效率的关键。很多时候,一个小小的 dtype 调整,就能让你的脚本从“卡死”变成“秒出结果”。

今天关于《Python用pandas读取Excel教程》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

谷歌垄断案迎关键突破,OpenAI成重要推手谷歌垄断案迎关键突破,OpenAI成重要推手
上一篇
谷歌垄断案迎关键突破,OpenAI成重要推手
Golang基准测试技巧:高效使用Benchmark方法
下一篇
Golang基准测试技巧:高效使用Benchmark方法
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    515次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    780次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    796次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    816次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    879次使用
  • 迅捷AIPPT:AI智能PPT生成器,高效制作专业演示文稿
    迅捷AIPPT
    迅捷AIPPT是一款高效AI智能PPT生成软件,一键智能生成精美演示文稿。内置海量专业模板、多样风格,支持自定义大纲,助您轻松制作高质量PPT,大幅节省时间。
    766次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码