Python时间序列重采样详解
在Python时间序列数据分析中,Pandas的`resample`方法是处理频率转换和数据聚合的关键利器。它能将数据从细粒度的时间单位(如分钟)转换为粗粒度单位(如日、周、月),并对新时间段内的数据进行统计计算。使用`resample`需确保DataFrame或Series具备DatetimeIndex,通过指定目标频率(如'D'、'W'、'M')并应用聚合函数(如`.mean()`、`.sum()`、`.ohlc()`)完成重采样。此外,`label`和`closed`参数可控制时间区间的标签位置和闭合端点,`fillna()`处理缺失值,`apply()`、`agg()`、`pipe()`实现自定义聚合与后处理。理解`resample()`与`asfreq()`的区别至关重要,前者用于聚合降频,后者用于频率转换而不聚合。掌握这些技巧,能高效解决各种时间序列数据挑战。
使用Pandas的resample方法进行时间序列数据处理及聚合的核心步骤如下:1. 确保DataFrame或Series具有DatetimeIndex,这是resample操作的前提;2. 使用resample('freq')指定目标频率,如'D'(日)、'W'(周)、'M'(月)等;3. 应用聚合函数如.mean()、.sum()、.ohlc()等对每个时间区间内的数据进行汇总;4. 可通过label和closed参数控制时间区间的标签位置和闭合端点;5. 对缺失值使用fillna()方法进行填充或保留NaN;6. 结合apply()、agg()、pipe()实现自定义聚合、多列多函数聚合和后处理流程;7. 区分resample()与asfreq(),前者用于聚合降频,后者用于频率转换而不聚合。
用Python处理时间序列数据,特别是涉及频率转换和数据聚合时,Pandas库里的resample
方法简直是神器。它能让你轻松地将数据从一个时间粒度转换到另一个,比如把每分钟的数据汇总成每日、每周甚至每月的数据,同时还能对这些新的时间段内的数据进行各种统计计算。

解决方案
要使用resample
,你首先得确保你的DataFrame或Series有一个DatetimeIndex。这是基础,也是关键。一旦有了这个索引,resample
方法就能像变魔术一样工作。
想象一下,你有一组高频的传感器数据,每秒记录一次,但你现在只想看每天的平均值。

import pandas as pd import numpy as np # 创建一个示例时间序列数据 # 假设从2023年1月1日0点开始,每分钟一个数据点 start_time = pd.to_datetime('2023-01-01 00:00:00') time_index = pd.date_range(start=start_time, periods=1000, freq='T') # 'T' for minute frequency data = np.random.rand(1000) * 100 df = pd.DataFrame({'value': data}, index=time_index) print("原始数据(前5行):") print(df.head()) print("\n原始数据信息:") df.info() # 将数据重采样为每日平均值 daily_avg = df.resample('D').mean() print("\n重采样为每日平均值(前5行):") print(daily_avg.head()) # 重采样为每周总和 weekly_sum = df.resample('W').sum() print("\n重采样为每周总和(前5行):") print(weekly_sum.head()) # 重采样为每月OHLC(开高低收) monthly_ohlc = df['value'].resample('M').ohlc() print("\n重采样为每月OHLC(前5行):") print(monthly_ohlc.head()) # 如果想指定标签的位置(比如用区间的结束时间作为标签) daily_avg_end_label = df.resample('D', label='right').mean() print("\n重采样为每日平均值(标签为区间结束时间,前5行):") print(daily_avg_end_label.head()) # 还可以用loffset来调整时间戳 daily_avg_shifted = df.resample('D', loffset='-12H').mean() # 将标签向后移12小时 print("\n重采样并调整标签(前5行):") print(daily_avg_shifted.head())
resample
的字符串参数非常灵活,支持各种频率,比如'D'
(日)、'W'
(周)、'M'
(月)、'Q'
(季度)、'A'
(年)、'H'
(小时)、'T'
或'min'
(分钟)、'S'
(秒)等等。后面跟着的聚合函数(如.mean()
, .sum()
, .first()
, .last()
, .ohlc()
, .count()
)决定了每个新时间段内的数据如何被汇总。
resample
背后的数据聚合逻辑是什么?
在我看来,resample
的核心逻辑,其实就是一种智能的“分箱”(binning)操作。它根据你指定的频率,在时间轴上划分出一个个连续的、互不重叠的时间区间。然后,它会把落在同一个时间区间内的所有原始数据点“收集”起来,形成一个临时的组。最后,你调用 .mean()
, .sum()
或者其他聚合函数时,就是对这些组内的数据进行计算,得到每个新时间区间的最终结果。

举个例子,如果你把数据从分钟级别重采样到日级别(resample('D')
),那么它会识别出所有属于1月1日的数据,把它们归到一起;再识别出所有属于1月2日的数据,又归到一起,以此类推。每个“日”就形成了一个独立的箱子。聚合函数就是对这些箱子里的数据进行操作。
这个过程很巧妙,因为它不仅仅是简单地选择数据,而是真正地重新组织数据。如果某个时间段内没有数据,resample
默认会为这个时间段创建一个条目,并填充NaN
,这在处理不连续或稀疏的时间序列时非常有用,因为它能帮你清晰地看到数据的缺失情况。我觉得这种“显式缺失”比隐式缺失要好得多,至少你知道哪里没数据。
如何处理resample
操作中的缺失值和边界情况?
缺失值和边界情况在实际数据处理中是常态,resample
也提供了参数来应对。
缺失值处理:
正如前面提到的,如果某个重采样后的时间区间内没有原始数据点,resample
会填充NaN
。处理这些NaN
,你可以在resample
之后链式调用Pandas的缺失值处理方法:
# 假设我们有一个稀疏的时间序列 sparse_time_index = pd.to_datetime(['2023-01-01', '2023-01-03', '2023-01-06']) sparse_data = [10, 20, 30] sparse_df = pd.DataFrame({'value': sparse_data}, index=sparse_time_index) # 重采样为每日,会有NaN daily_sparse = sparse_df.resample('D').mean() print("\n稀疏数据重采样为每日(含NaN):") print(daily_sparse) # 填充缺失值 daily_filled_ffill = daily_sparse.fillna(method='ffill') # 用前一个有效值填充 print("\n缺失值前向填充:") print(daily_filled_ffill) daily_filled_bfill = daily_sparse.fillna(method='bfill') # 用后一个有效值填充 print("\n缺失值后向填充:") print(daily_filled_bfill) daily_filled_zero = daily_sparse.fillna(0) # 填充0 print("\n缺失值填充0:") print(daily_filled_zero)
选择哪种填充方式取决于你的业务逻辑和数据特性。有时候,NaN
本身就是一种信息,表示那个时间点确实没有数据,不需要填充。
边界情况(closed
和label
):resample
默认情况下,区间的左边界是包含的,右边界是不包含的(closed='left'
),并且新生成的时间戳标签是区间的左边界(label='left'
)。但你可以在特定场景下调整它们:
closed
: 决定区间的哪一端是闭合的(包含)。'left'
(默认):[start, end)
'right'
:(start, end]
label
: 决定新时间段的标签是使用区间的开始时间还是结束时间。'left'
(默认): 使用区间的开始时间作为标签。'right'
: 使用区间的结束时间作为标签。
# 原始数据,方便观察边界 data_for_boundary = pd.DataFrame({'value': range(5)}, index=pd.to_datetime(['2023-01-01 00:00', '2023-01-01 23:59', '2023-01-02 00:00', '2023-01-02 23:59', '2023-01-03 00:00'])) print("\n原始数据用于边界观察:") print(data_for_boundary) # 默认行为:closed='left', label='left' # 2023-01-01的数据包括00:00到23:59 # 2023-01-02的数据包括00:00到23:59 default_resample = data_for_boundary.resample('D').sum() print("\n默认重采样(closed='left', label='left'):") print(default_resample) # closed='right', label='right' # 2023-01-01的数据包括(2022-12-31 23:59, 2023-01-01 23:59] # 标签是结束时间 right_closed_right_label = data_for_boundary.resample('D', closed='right', label='right').sum() print("\n重采样(closed='right', label='right'):") print(right_closed_right_label)
理解这些参数对于确保数据聚合的准确性至关重要,特别是当你的业务对时间边界有严格要求时。
除了简单的聚合,resample
还能做哪些高级操作?
resample
的强大之处远不止于简单的聚合函数。它能与Pandas的其他功能结合,实现更复杂的分析。
自定义聚合函数 (
apply
): 如果内置的mean
,sum
等不能满足你的需求,你可以传入一个自定义函数到apply
方法中。这个函数会接收每个重采样区间的Series数据。# 计算每个月数据的范围 (max - min) monthly_range = df['value'].resample('M').apply(lambda x: x.max() - x.min()) print("\n每月数据范围(自定义聚合):") print(monthly_range.head()) # 甚至可以返回多个值,但需要确保返回的是Series或DataFrame,或者每个区间返回一个标量 # 比如返回每个月的Q1和Q3 def get_quantiles(x): return pd.Series({'Q1': x.quantile(0.25), 'Q3': x.quantile(0.75)}) monthly_quantiles = df['value'].resample('M').apply(get_quantiles) print("\n每月Q1和Q3(自定义聚合返回多值):") print(monthly_quantiles.head())
这给了你极大的灵活性,可以根据业务需求实现任何复杂的聚合逻辑。
多列聚合: 如果你DataFrame有多列,并且想对不同的列应用不同的聚合函数,可以使用
agg
方法。df_multi_col = df.copy() df_multi_col['another_value'] = np.random.rand(len(df)) * 50 # 对'value'列求平均,对'another_value'列求和 daily_agg_multi = df_multi_col.resample('D').agg({ 'value': 'mean', 'another_value': 'sum' }) print("\n多列聚合(不同函数):") print(daily_agg_multi.head()) # 对所有数值列应用多个聚合函数 daily_agg_all_cols = df_multi_col.resample('D').agg(['mean', 'sum', 'std']) print("\n所有数值列应用多个聚合函数:") print(daily_agg_all_cols.head())
agg
方法让多维度分析变得异常便捷。与
pipe
结合:pipe
方法允许你将resample
的结果直接传递给一个函数或一系列函数,实现更流畅的工作流。def process_resampled_data(resampled_df): # 假设这里有一些后处理逻辑,比如填充缺失值并计算一个新列 processed_df = resampled_df.fillna(0) processed_df['value_ratio'] = processed_df['value'] / processed_df['another_value'] return processed_df # 将resample的结果通过pipe传递给自定义处理函数 processed_output = df_multi_col.resample('D').mean().pipe(process_resampled_data) print("\n使用pipe进行后处理:") print(processed_output.head())
这有助于构建清晰、可读的数据处理管道。
asfreq()
与resample()
的区别: 虽然不是resample
本身的高级操作,但理解asfreq()
和resample()
的区别对于时间序列处理至关重要。resample()
是聚合操作,它会改变数据点的数量,并对每个区间进行聚合。而asfreq()
仅仅是改变频率,它不会进行聚合,如果新的频率点上没有数据,它会填充NaN
,或者直接取最近的一个点(取决于参数)。# df是原始分钟级数据 # resample到每小时,取平均 hourly_resample = df.resample('H').mean() print("\nresample到每小时(平均):") print(hourly_resample.head()) # asfreq到每小时,不聚合,直接取对应时间点的值,没有则NaN # 注意:asfreq通常用于升采样,或在降采样时仅取特定点 hourly_asfreq = df.asfreq('H') print("\nasfreq到每小时(不聚合):") print(hourly_asfreq.head())
asfreq
在需要保持原始数据点结构,只是改变观察频率时非常有用,比如从日数据变为月数据,但只关心每个月的第一天。
这些高级用法让resample
不仅仅是一个简单的聚合工具,更是时间序列分析中不可或缺的利器。通过灵活运用,你可以解决各种复杂的时间序列数据挑战。
本篇关于《Python时间序列重采样详解》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!

- 上一篇
- MyBatis分页插件使用全解析

- 下一篇
- GolangHTTP处理器测试技巧全解析
-
- 文章 · python教程 | 18分钟前 |
- Python正则匹配Unicode字符全攻略
- 183浏览 收藏
-
- 文章 · python教程 | 22分钟前 |
- PyQt5桌面应用开发教程
- 484浏览 收藏
-
- 文章 · python教程 | 25分钟前 |
- Python连接Spark的实用方法分享
- 135浏览 收藏
-
- 文章 · python教程 | 38分钟前 |
- 正则表达式命名分组是什么?怎么使用?
- 405浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python排序技巧:sorted与lambda使用全解析
- 417浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python文本分类实战:Scikit-learn教程详解
- 111浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python音频处理:pydub实用教程详解
- 121浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python代码混淆实战:AST模块深度解析
- 449浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python操作Excel:openpyxl教程详解
- 165浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 边界AI平台
- 探索AI边界平台,领先的智能AI对话、写作与画图生成工具。高效便捷,满足多样化需求。立即体验!
- 417次使用
-
- 免费AI认证证书
- 科大讯飞AI大学堂推出免费大模型工程师认证,助力您掌握AI技能,提升职场竞争力。体系化学习,实战项目,权威认证,助您成为企业级大模型应用人才。
- 424次使用
-
- 茅茅虫AIGC检测
- 茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
- 560次使用
-
- 赛林匹克平台(Challympics)
- 探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
- 662次使用
-
- 笔格AIPPT
- SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
- 569次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览