当前位置:首页 > 文章列表 > 文章 > python教程 > Pandas时间窗口聚合技巧全解析

Pandas时间窗口聚合技巧全解析

2025-09-22 23:07:02 0浏览 收藏

想要高效处理Pandas时序数据关联与聚合?本文为你详解两种实用技巧,助力解决复杂数据分析难题。首先,我们提出一个常见场景:如何从交易记录和浏览历史中,找出交易前特定时间窗口(如7天内)的相关浏览记录,并进行聚合。针对这一问题,本文提供了两种解决方案:一是利用`pyjanitor`库的`conditional_join`函数,该方法在处理大规模数据时性能更优;二是纯Pandas的`merge`结合条件筛选,再通过`groupby.agg`完成聚合。无论选择哪种方法,都能帮助你轻松实现基于时间窗口的数据关联,提升数据分析效率,并避免`merge_asof`的局限性。

Pandas中基于时间窗口关联和聚合数据的技巧:以交易与浏览记录为例

本文详细介绍了如何在Pandas中,从两个DataFrame(如交易记录和浏览历史)中,高效地识别并聚合出在特定时间窗口(例如交易前7天)内相关联的数据。教程提供了两种实现方法:一种是利用pyjanitor库的conditional_join函数进行性能优化,另一种是纯Pandas的merge结合条件筛选,并最终通过groupby.agg完成数据聚合,旨在帮助用户处理复杂的时序数据关联需求。

1. 问题描述与数据准备

在数据分析中,我们经常需要根据时间范围将两个数据集关联起来。一个常见的场景是,我们有两个DataFrame:一个记录了用户的交易信息,另一个记录了用户的浏览历史。我们的目标是为每笔交易找出其发生前7天内的所有相关浏览记录,并聚合这些记录的日期和值。这里的“相关”意味着交易和浏览记录必须属于同一个用户(person)和同一个商品代码(code)。

考虑以下两个示例DataFrame:

交易记录 (trade)

import pandas as pd
import janitor # 导入 janitor 库

trade = pd.DataFrame({'date': ['2019-08-31', '2019-09-01', '2019-09-04'],
                      'person': [1, 1,  2],
                      'code': [123, 123, 456],
                      'value1': [1, 2, 3]})

浏览历史 (view)

view = pd.DataFrame({'date': ['2019-08-29', '2019-08-29', '2019-08-30', '2019-08-31', '2019-09-01',   '2019-09-01', '2019-09-01', '2019-09-02', '2019-09-03'],
                      'person': [1, 1, 1, 2, 1, 2, 2, 1, 2],
                      'code': [123, 456, 123, 456, 123, 123, 456, 123, 456],
                      'value': [1, 2, 3, 4, 5, 6, 7, 8, 9]
                    })

在进行时间相关的操作之前,将日期列转换为Pandas的datetime类型是至关重要的。

trade['date'] = pd.to_datetime(trade['date'])
view['date'] = pd.to_datetime(view['date'])

我们期望的输出结果是,在原始交易信息的基础上,增加两列:view_dates和view_values,它们分别是以列表形式存储的、在每笔交易前7天内匹配到的浏览记录日期和值。

2. 传统 merge_asof 的局限性

Pandas的merge_asof函数常用于近似合并时序数据。然而,它主要设计用于“最近匹配”场景,通常每个右侧(right)DataFrame的条目最多只能匹配一次。在本例中,我们希望每个交易条目能够匹配到多个浏览历史条目,且这些浏览历史条目可以被不同的交易重复匹配。因此,merge_asof无法直接满足我们的需求。例如,如果使用merge_asof,它可能会将浏览记录[1, 3]分配给第一笔交易,但对于第二笔交易,它可能只会分配[5],而忽略了同样在7天窗口内的[1, 3]。

3. 方法一:使用 pyjanitor.conditional_join (推荐)

pyjanitor库提供了一个强大的conditional_join函数,它允许我们基于多个自定义条件进行DataFrame的连接,包括非等值条件(如时间范围)。这使得它非常适合处理此类复杂的时序数据关联问题,尤其是在处理大规模数据时,其效率通常高于纯Pandas的循环或笛卡尔积合并。

实现步骤

  1. 创建辅助列 start_date: 在trade DataFrame中添加一个start_date列,表示每笔交易发生日期前7天的日期。这将作为我们时间窗口的下限。
  2. 执行 conditional_join: 使用conditional_join函数连接trade和view。
    • 时间条件: 确保view_dates在start_date和trade.date之间(即start_date <= view_dates <= trade.date)。
    • 匹配条件: 确保person和code相等。
    • 重命名列: 在view DataFrame中,将date和value列重命名为view_dates和view_values,以避免与trade中的列名冲突,并明确其来源。
  3. 清理和格式化: 删除不再需要的start_date辅助列,并将view_dates格式化为字符串。
  4. 聚合结果: 根据原始trade DataFrame的列进行分组,然后将匹配到的view_dates和view_values聚合成列表。

示例代码

# 1. 创建辅助列 'start_date'
# 2. 执行 conditional_join
# 3. 清理和格式化
# 4. 聚合结果
out_janitor = (trade
  .assign(start_date=lambda d: d['date'].sub(pd.DateOffset(days=7))) # 计算7天前的日期
  .conditional_join(view.rename(columns={'date': 'view_dates', 'value': 'view_values'}), # 重命名view列
                    ('start_date', 'view_dates', '<='), # 条件1: start_date <= view_dates
                    ('date', 'view_dates', '>='),     # 条件2: trade.date >= view_dates
                    ('person', 'person', '=='),       # 条件3: person 匹配
                    ('code', 'code', '=='),           # 条件4: code 匹配
                    right_columns=['view_dates', 'view_values'] # 保留右侧DataFrame的哪些列
                   )
  .drop(columns='start_date') # 删除辅助列
  .assign(view_dates=lambda d: d['view_dates'].dt.strftime('%Y-%m-%d')) # 格式化日期为字符串
  .groupby(list(trade), as_index=False).agg(list) # 按原始trade列分组并聚合列表
)

print("使用 pyjanitor.conditional_join 的结果:")
print(out_janitor)

输出结果

        date  person  code  value1                            view_dates view_values
0 2019-08-31       1   123       1              [2019-08-29, 2019-08-30]      [1, 3]
1 2019-09-01       1   123       2  [2019-08-29, 2019-08-30, 2019-09-01]   [1, 3, 5]
2 2019-09-04       2   456       3  [2019-08-31, 2019-09-01, 2019-09-03]   [4, 7, 9]

4. 方法二:纯 Pandas 解决方案

如果不想引入额外的库,也可以纯粹使用Pandas的merge和条件筛选来实现。这种方法在概念上更直观,但对于非常大的数据集,其性能可能不如pyjanitor.conditional_join,因为它首先会生成一个潜在的较大中间DataFrame(笛卡尔积或近似笛卡尔积)。

实现步骤

  1. 进行笛卡尔合并: 首先,基于person和code列对trade和view进行合并。这将为每个交易条目与每个匹配的浏览条目创建一个组合。
  2. 应用时间条件筛选: 在合并后的DataFrame上,应用两个时间条件:
    • 浏览日期必须早于交易日期 (trade_date > view_dates)。
    • 浏览日期必须在交易日期前7天之内 (trade_date - 7_days <= view_dates)。
  3. 格式化和聚合: 同样,将view_dates格式化为字符串,然后按原始trade DataFrame的列进行分组,并聚合列表。

示例代码

# 1. 进行笛卡尔合并
# 2. 应用时间条件筛选
# 3. 格式化和聚合
out_pandas = (trade
 .merge(view.rename(columns={'date': 'view_dates', 'value': 'view_values'}), # 重命名view列并合并
        on=['person', 'code'])
 .loc[lambda d: d['date'].gt(d['view_dates']) & # 筛选条件1: 交易日期 > 浏览日期
      d['date'].sub(pd.DateOffset(days=7)).le(d['view_dates']) # 筛选条件2: 交易日期 - 7天 <= 浏览日期
     ]
 .assign(view_dates=lambda d: d['view_dates'].dt.strftime('%Y-%m-%d')) # 格式化日期为字符串
 .groupby(list(trade), as_index=False).agg(list) # 按原始trade列分组并聚合列表
)

print("\n使用纯 Pandas 解决方案的结果:")
print(out_pandas)

输出结果

        date  person  code  value1                            view_dates view_values
0 2019-08-31       1   123       1              [2019-08-29, 2019-08-30]      [1, 3]
1 2019-09-01       1   123       2  [2019-08-29, 2019-08-30, 2019-09-01]   [1, 3, 5]
2 2019-09-04       2   456       3  [2019-08-31, 2019-09-01, 2019-09-03]   [4, 7, 9]

5. 总结与选择

本教程展示了两种在Pandas中实现基于时间窗口的数据关联和聚合的方法:

  • pyjanitor.conditional_join: 这种方法在处理复杂的非等值连接(如时间范围)时表现出色,尤其在性能方面优于纯Pandas的笛卡尔合并加筛选,因为它避免了生成过大的中间DataFrame。当处理大型数据集或需要更灵活的连接条件时,强烈推荐使用此方法。
  • 纯 Pandas merge + 筛选: 这种方法易于理解和实现,不需要额外库。但在数据量较大时,由于可能产生庞大的中间合并结果,其内存消耗和计算效率可能较低。对于中小型数据集或对性能要求不极致的场景,这是一个可行的选择。

选择哪种方法取决于你的具体需求、数据集大小以及对性能和依赖库的偏好。无论选择哪种,关键都在于正确地定义时间窗口条件并使用groupby.agg(list)来收集所有匹配的条目。

今天关于《Pandas时间窗口聚合技巧全解析》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

CSSflex布局入门:display:flex使用教程CSSflex布局入门:display:flex使用教程
上一篇
CSSflex布局入门:display:flex使用教程
学习通快速找课程方法分享
下一篇
学习通快速找课程方法分享
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • PandaWiki开源知识库:AI大模型驱动,智能文档与AI创作、问答、搜索一体化平台
    PandaWiki开源知识库
    PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
    290次使用
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    1073次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    1102次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    1107次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    1175次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码