Python用pandas读取Excel教程
想要高效读取 Excel 文件,告别繁琐操作?本文为你详细解读 Python 中 Pandas 库的 `read_excel()` 函数。作为数据分析的利器,Pandas 结合 `openpyxl` 库,能轻松应对各种 Excel 文件,无论是指定 sheet 工作表、控制数据类型,还是处理缺失值,都能灵活实现。本文将深入讲解 `sheet_name`、`dtype`、`na_values` 等关键参数的用法,并提供实用技巧,教你如何跳过行、选择列,精准读取所需数据。更进一步,针对大型 Excel 文件,本文还将分享性能优化策略,包括精确选取所需列、合理定义数据类型,甚至将 Excel 转换为 CSV 文件,助你提升数据处理效率,让你的 Python 脚本飞起来!
使用pandas.read_excel()函数可高效读取Excel文件,需先安装pandas和openpyxl库。通过指定文件路径、sheet_name参数读取特定工作表或所有工作表,结合dtype和na_values参数控制数据类型与缺失值识别,利用skiprows、header、usecols和nrows等参数灵活选择数据范围。处理大型文件时,优化策略包括精确选取所需列、合理定义数据类型以降低内存占用,并可考虑将Excel转为CSV提升读取效率。

Python 中使用 Pandas 读取 Excel 文件,最核心且直接的方法就是利用 pandas.read_excel() 函数。它能轻松将 .xls 或 .xlsx 格式的数据加载到 DataFrame 中,为后续的数据分析和处理打下基础。这个函数功能强大,能应对各种复杂的 Excel 文件结构,从最简单的单工作表读取到多工作表、指定行/列乃至数据类型控制,都能搞定。
解决方案
要开始,首先确保你已经安装了 Pandas 库,并且根据 Excel 文件格式,可能还需要安装 openpyxl (用于 .xlsx 文件) 或 xlrd (用于 .xls 文件)。通常,openpyxl 是推荐的,因为它支持较新的 Excel 格式。
安装方法:
pip install pandas openpyxl
读取 Excel 文件的基本步骤非常简单:
- 导入 Pandas 库: 这是所有 Pandas 操作的第一步。
- 调用
pd.read_excel(): 将你的 Excel 文件路径作为第一个参数传给它。
import pandas as pd
# 假设你的Excel文件名为 'sales_data.xlsx' 并且在当前工作目录下
try:
df = pd.read_excel('sales_data.xlsx')
print("文件读取成功!前5行数据如下:")
print(df.head())
except FileNotFoundError:
print("错误:文件未找到。请检查文件路径和文件名是否正确。")
except Exception as e:
print(f"读取文件时发生错误: {e}")
# 如果是旧版 .xls 文件,可能需要 xlrd 引擎
# df_old_excel = pd.read_excel('legacy_data.xls', engine='xlrd')
# print("\n旧版Excel文件读取成功!")
# print(df_old_excel.head())这个 pd.read_excel() 函数背后其实做了很多事情,它会尝试猜测文件的结构,比如哪一行是表头、哪些是数据。但实际工作中,Excel 文件往往不那么“标准”,所以我们需要掌握一些参数来精细控制读取过程。
Python Pandas 如何读取 Excel 文件中的特定工作表?
Excel 文件经常包含多个工作表(Sheet),而我们通常只关心其中一个或几个。pd.read_excel() 提供了一个 sheet_name 参数来处理这种情况,这在我看来是读取 Excel 时最常用也最重要的参数之一。
sheet_name 可以接受多种类型的值:
- 字符串: 直接指定工作表的名称。
- 整数: 指定工作表的索引(从 0 开始计数)。
None: 读取所有工作表,结果会是一个字典,键是工作表名称,值是对应的 DataFrame。- 列表: 读取指定名称或索引的工作表列表,结果也是一个字典。
import pandas as pd
file_path = 'multi_sheet_data.xlsx'
# 假设 multi_sheet_data.xlsx 包含 'Sheet1', 'SalesData', 'Config' 三个工作表
# 1. 读取名为 'SalesData' 的工作表
try:
df_sales = pd.read_excel(file_path, sheet_name='SalesData')
print("\n读取 'SalesData' 工作表:")
print(df_sales.head())
except Exception as e:
print(f"读取 'SalesData' 时发生错误: {e}")
# 2. 读取第一个工作表(索引为 0)
try:
df_first_sheet = pd.read_excel(file_path, sheet_name=0)
print("\n读取第一个工作表(索引 0):")
print(df_first_sheet.head())
except Exception as e:
print(f"读取第一个工作表时发生错误: {e}")
# 3. 读取所有工作表
try:
all_sheets = pd.read_excel(file_path, sheet_name=None)
print("\n读取所有工作表,结果是一个字典:")
for sheet_name, df in all_sheets.items():
print(f"--- 工作表: {sheet_name} ---")
print(df.head(2)) # 只打印前两行,避免输出过多
except Exception as e:
print(f"读取所有工作表时发生错误: {e}")
# 4. 读取指定名称的多个工作表
try:
selected_sheets = pd.read_excel(file_path, sheet_name=['SalesData', 'Config'])
print("\n读取 'SalesData' 和 'Config' 两个工作表:")
for sheet_name, df in selected_sheets.items():
print(f"--- 工作表: {sheet_name} ---")
print(df.head(2))
except Exception as e:
print(f"读取指定多个工作表时发生错误: {e}")在我看来,sheet_name=None 这种方式在探索一个不熟悉的 Excel 文件结构时特别有用,能让你一眼看到所有工作表的数据概貌。
Pandas 读取 Excel 时,如何有效处理数据类型和缺失值?
数据类型和缺失值是数据清洗过程中绕不开的两个大问题,在从 Excel 读取数据时,如果不加以控制,很容易出现意想不到的错误。Pandas 提供了 dtype 和 na_values 参数来帮助我们预先处理这些问题。
数据类型 (dtype):
Excel 单元格的格式并不总是能准确地映射到 Python 的数据类型。比如,一个全是数字的列,如果其中某个单元格被手动格式化为文本,Pandas 可能会将整个列都读作字符串(object 类型),这在后续的数值计算中会造成麻烦。使用 dtype 参数,我们可以强制指定某些列的数据类型。
dtype 接受一个字典,键是列名或列索引,值是 NumPy 或 Python 的数据类型。
缺失值 (na_values):
Excel 中表示缺失值的方式多种多样,除了空白单元格,还可能有 "N/A", "-", "None" 等自定义标记。pd.read_excel() 默认会将空白单元格读取为 NaN (Not a Number),但对于自定义的缺失值标记,它就无能为力了。na_values 参数可以接受一个列表或字典,告诉 Pandas 哪些值应该被识别为 NaN。
import pandas as pd
import numpy as np
file_path = 'data_with_issues.xlsx'
# 假设 data_with_issues.xlsx 包含:
# - 'OrderID' 列,可能被读成浮点数(如1001.0),我们希望是整数。
# - 'Price' 列,我们希望是浮点数。
# - 'Status' 列,某些单元格可能是 'N/A' 或 '-',我们希望识别为缺失值。
# - 'Notes' 列,可能有一些自定义的缺失值标记,如 '无'。
# 定义数据类型和缺失值
dtype_spec = {
'OrderID': int, # 确保 OrderID 是整数
'Price': float, # 确保 Price 是浮点数
'Quantity': 'int64', # 也可以用字符串形式
'ProductCode': str # 确保 ProductCode 是字符串
}
na_values_spec = [
'N/A', # 将 'N/A' 识别为 NaN
'-', # 将 '-' 识别为 NaN
'无', # 将 '无' 识别为 NaN
'None' # 有些 Excel 文件中 'None' 也是缺失值
]
try:
df_clean = pd.read_excel(file_path,
dtype=dtype_spec,
na_values=na_values_spec)
print("\n处理数据类型和缺失值后的 DataFrame:")
print(df_clean.head())
print("\n各列数据类型:")
print(df_clean.dtypes)
print("\n缺失值统计:")
print(df_clean.isnull().sum())
except Exception as e:
print(f"读取并处理数据时发生错误: {e}")
# 一个常见的场景是,Excel 中的整数列如果包含空白,Pandas 会自动将其转换为浮点数(如 1.0, NaN)。
# 如果我们希望保持整数类型并允许缺失值,可以使用 Pandas 的 nullable integer 类型:
# 'OrderID': pd.Int64Dtype()
# 这种类型在处理含有缺失值的整数列时非常有用。
# df_nullable_int = pd.read_excel(file_path, dtype={'OrderID': pd.Int64Dtype()})
# print("\n使用 nullable integer 后的 OrderID 类型:")
# print(df_nullable_int['OrderID'].dtype)dtype 和 na_values 组合使用,能大大减少后续数据清洗的工作量,尤其是在处理那些数据源不那么规范的 Excel 文件时,简直是神器。
在 Pandas 中,如何灵活控制 Excel 文件的读取范围,例如跳过行或指定列?
实际的 Excel 文件往往不只是纯粹的数据表格,可能包含标题、批注、汇总行等非数据内容,或者我们只对其中一部分列感兴趣。pd.read_excel() 提供了 skiprows, nrows, usecols, header 等参数,让我们能够精准地选择需要读取的数据区域。
跳过行 (skiprows):
这个参数非常实用,可以跳过文件开头的几行,或者跳过文件中的特定行。
- 整数: 跳过文件开头的指定行数。
- 列表: 跳过文件中指定索引的行(从 0 开始计数)。
指定表头 (header):
默认情况下,Pandas 认为第一行(索引 0)是表头。但如果你的表头在其他行,比如第 3 行,就需要通过 header 参数来指定。header 接受一个整数,表示作为表头的行索引。
读取指定行数 (nrows):
如果只想读取文件的前 N 行数据,可以使用 nrows 参数。这在处理大型文件时,用于快速预览数据结构非常方便。
选择特定列 (usecols):
我们不一定需要 Excel 文件中的所有列。usecols 参数可以让我们只读取感兴趣的列,这不仅能减少内存占用,还能加快读取速度。
- 列表(字符串): 指定要读取的列名列表。
- 列表(整数): 指定要读取的列索引列表。
- 字符串: 指定一个列范围,如 'A:C' 或 'A,C,E'。
- 可调用对象: 传入一个函数,该函数接收列名并返回
True或False来决定是否读取该列。
import pandas as pd
file_path = 'complex_layout_data.xlsx'
# 假设 complex_layout_data.xlsx 文件结构如下:
# - 前两行是报告标题和生成日期
# - 第 3 行是实际的列名(表头)
# - 数据从第 4 行开始
# - 我们只对 'Product', 'Quantity', 'Price' 这三列感兴趣
# - 文件可能包含很多行,但我们只想读取前 100 行数据
# 1. 跳过前两行,将第三行作为表头
try:
df_skip_header = pd.read_excel(file_path,
skiprows=2, # 跳过前2行(索引0和1)
header=0) # 跳过之后的第一行(原文件的第3行)作为表头
print("\n跳过前两行,并将第三行作为表头读取:")
print(df_skip_header.head())
except Exception as e:
print(f"读取时发生错误 (跳过行和表头): {e}")
# 2. 只读取 'Product', 'Quantity', 'Price' 三列,并限制行数
try:
df_partial = pd.read_excel(file_path,
skiprows=2,
header=0,
usecols=['Product', 'Quantity', 'Price'], # 指定列名
nrows=10) # 只读取数据的前10行
print("\n只读取指定列和前10行数据:")
print(df_partial)
except Exception as e:
print(f"读取时发生错误 (指定列和行数): {e}")
# 3. 使用列索引来指定列(假设 Product 是第2列,Quantity是第3列,Price是第4列,从0开始)
try:
df_col_index = pd.read_excel(file_path,
skiprows=2,
header=0,
usecols=[1, 2, 3], # 读取索引为1, 2, 3的列
nrows=5)
print("\n使用列索引读取指定列和前5行数据:")
print(df_col_index)
except Exception as e:
print(f"读取时发生错误 (使用列索引): {e}")
# 4. 如果 Excel 文件中存在一些不规则的行,比如中间插入了批注行,可以使用 skiprows 列表
# 假设我们要跳过第0, 1, 5行(原文件中的行号)
# df_irregular_skip = pd.read_excel(file_path, skiprows=[0, 1, 5], header=0)
# print("\n跳过不规则行后的数据:")
# print(df_irregular_skip.head())这些参数的组合使用,让 pd.read_excel() 变得异常灵活。在我自己的项目里,很多时候 Excel 文件都是由不同部门同事提供的,格式五花八门,这些参数就是我快速把数据整理成可用 DataFrame 的利器。
处理大型 Excel 文件时,Pandas 读取性能优化有哪些实用技巧?
处理小型 Excel 文件时,性能通常不是问题。但当文件大小达到几十甚至上百兆,包含几十万上百万行数据时,读取速度和内存占用就会变得很关键。虽然 pd.read_excel() 不像 pd.read_csv() 那样直接支持 chunksize 进行分块读取(它会将整个文件加载到内存),但我们仍然有一些策略可以优化其性能。
1. 精确指定 usecols:
这是最直接也最有效的优化手段之一。如果你的 Excel 文件有几十上百列,但你只需要其中的几列,那么明确指定 usecols 可以显著减少内存占用和读取时间。Pandas 只需要解析和加载你指定的列数据,而不是整个表格。
2. 优化数据类型 (dtype):
如前所述,dtype 不仅能确保数据正确性,也能大幅优化内存使用。默认情况下,Pandas 可能会为数字列分配 float64,为字符串列分配 object。如果知道某些整数列不会有缺失值且数值范围不大,可以指定为 int32 或 int16。字符串列如果只有少数几种固定值,可以考虑转换为 category 类型。
import pandas as pd
import time
import os
# 假设 large_data.xlsx 是一个非常大的文件
large_file_path = 'large_data.xlsx' # 请替换为你的大文件路径
# 创建一个模拟的大型Excel文件(如果不存在)
if not os.path.exists(large_file_path):
print(f"正在创建模拟大型文件 '{large_file_path}',请稍候...")
data = {
'col_int': range(1_000_000),
'col_float': [float(i) * 1.23 for i in range(1_000_000)],
'col_str_short': [f'Item_{i%100}' for i in range(1_000_000)],
'col_str_long': [f'This is a very long string for item {i}' for i in range(1_000_000)],
'col_bool': [i % 2 == 0 for i in range(1_000_000)],
'col_date': pd.to_datetime([f'2023-01-01'] * 1_000_000)
}
large_df_gen = pd.DataFrame(data)
large_df_gen.to_excel(large_file_path, index=False, engine='openpyxl')
print("模拟文件创建完成。")
else:
print(f"文件 '{large_file_path}' 已存在,跳过创建。")
# 场景1:不进行任何优化,读取所有列
print("\n--- 场景1:不优化读取所有列 ---")
start_time = time.time()
try:
df_unoptimized = pd.read_excel(large_file_path)
end_time = time.time()
print(f"读取耗时: {end_time - start_time:.2f} 秒")
print(f"DataFrame 内存占用: {df_unoptimized.memory_usage(deep=True).sum() / (1024**2):.2f} MB")
except Exception as e:
print(f"读取失败: {e}")
# 场景2:指定 usecols 和 dtype 进行优化
print("\n--- 场景2:使用 usecols 和 dtype 优化 ---")
optimized_dtype = {
'col_int': 'int32',
'col_float': 'float32',
'col_str_short': 'category', # 如果字符串重复度高,category 很有用
'col_bool': 'bool'
}
selected_cols = ['col_int', 'col_float', 'col_str_short', 'col_bool']
start_time = time.time()
try:
df_optimized = pd.read_excel(large_file_path,
usecols=selected_cols,
dtype=optimized_dtype)
end_time = time.time()
print(f"读取耗时: {end_time - start_time:.2f} 秒")
print(f"DataFrame 内存占用: {df_optimized.memory_usage(deep=True).sum() / (1024**2):.2f} MB")
except Exception as e:
print(f"读取失败: {e}")从上面的模拟测试中,你应该能直观感受到 usecols 和 dtype 对性能和内存的巨大影响。
3. 使用 nrows 进行抽样或分批处理:
虽然 read_excel 没有内置的 chunksize 迭代器,但如果你只需要文件的一部分数据进行分析,或者想分批处理(例如,每次读取几万行然后处理),可以使用 nrows 和 skiprows 组合来实现。这需要你手动循环,每次读取下一批数据。
4. 优先使用 openpyxl 引擎:
对于 .xlsx 格式的文件,openpyxl 是默认且推荐的引擎。它通常比 xlrd 更快,并且支持更多的 Excel 特性。你也可以显式指定 engine='openpyxl'。
5. 考虑将 Excel 转换为 CSV:
如果 Excel 文件真的非常大,并且你的数据结构相对简单(没有复杂的公式、宏等),一个非常有效的策略是先将 Excel 文件转换为 CSV 文件。Pandas 读取 CSV 文件的效率远高于 Excel,因为它不需要解析复杂的二进制或 XML 结构。你可以使用 Excel 软件手动转换,或者用 openpyxl 库在 Python 中实现转换。
在我看来,处理大型数据时,数据类型和列选择的精细控制是避免内存溢出和提高效率的关键。很多时候,一个小小的 dtype 调整,就能让你的脚本从“卡死”变成“秒出结果”。
今天关于《Python用pandas读取Excel教程》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!
谷歌垄断案迎关键突破,OpenAI成重要推手
- 上一篇
- 谷歌垄断案迎关键突破,OpenAI成重要推手
- 下一篇
- Golang基准测试技巧:高效使用Benchmark方法
-
- 文章 · python教程 | 5小时前 |
- PandasDataFrame列赋值NaN方法解析
- 205浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- Python元组括号用法与列表推导注意事项
- 143浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- ib\_insync获取SPX历史数据教程
- 395浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- GTK3Python动态CSS管理技巧分享
- 391浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- Python微服务开发:Nameko框架全解析
- 269浏览 收藏
-
- 文章 · python教程 | 7小时前 |
- Xarray重采样技巧:解决维度冲突方法
- 410浏览 收藏
-
- 文章 · python教程 | 7小时前 | 多进程编程 进程间通信 进程池 process multiprocessing
- Python3多进程技巧与实战指南
- 131浏览 收藏
-
- 文章 · python教程 | 8小时前 |
- Python列表线程传递方法详解
- 382浏览 收藏
-
- 文章 · python教程 | 8小时前 |
- Python国内镜像源设置方法
- 154浏览 收藏
-
- 文章 · python教程 | 8小时前 |
- 数据库迁移步骤与实用技巧分享
- 251浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3166次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3378次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3407次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4511次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3787次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

