当前位置:首页 > 文章列表 > 文章 > python教程 > Pandas时间窗口聚合技巧全解析

Pandas时间窗口聚合技巧全解析

2025-09-22 23:07:02 0浏览 收藏

想要高效处理Pandas时序数据关联与聚合?本文为你详解两种实用技巧,助力解决复杂数据分析难题。首先,我们提出一个常见场景:如何从交易记录和浏览历史中,找出交易前特定时间窗口(如7天内)的相关浏览记录,并进行聚合。针对这一问题,本文提供了两种解决方案:一是利用`pyjanitor`库的`conditional_join`函数,该方法在处理大规模数据时性能更优;二是纯Pandas的`merge`结合条件筛选,再通过`groupby.agg`完成聚合。无论选择哪种方法,都能帮助你轻松实现基于时间窗口的数据关联,提升数据分析效率,并避免`merge_asof`的局限性。

Pandas中基于时间窗口关联和聚合数据的技巧:以交易与浏览记录为例

本文详细介绍了如何在Pandas中,从两个DataFrame(如交易记录和浏览历史)中,高效地识别并聚合出在特定时间窗口(例如交易前7天)内相关联的数据。教程提供了两种实现方法:一种是利用pyjanitor库的conditional_join函数进行性能优化,另一种是纯Pandas的merge结合条件筛选,并最终通过groupby.agg完成数据聚合,旨在帮助用户处理复杂的时序数据关联需求。

1. 问题描述与数据准备

在数据分析中,我们经常需要根据时间范围将两个数据集关联起来。一个常见的场景是,我们有两个DataFrame:一个记录了用户的交易信息,另一个记录了用户的浏览历史。我们的目标是为每笔交易找出其发生前7天内的所有相关浏览记录,并聚合这些记录的日期和值。这里的“相关”意味着交易和浏览记录必须属于同一个用户(person)和同一个商品代码(code)。

考虑以下两个示例DataFrame:

交易记录 (trade)

import pandas as pd
import janitor # 导入 janitor 库

trade = pd.DataFrame({'date': ['2019-08-31', '2019-09-01', '2019-09-04'],
                      'person': [1, 1,  2],
                      'code': [123, 123, 456],
                      'value1': [1, 2, 3]})

浏览历史 (view)

view = pd.DataFrame({'date': ['2019-08-29', '2019-08-29', '2019-08-30', '2019-08-31', '2019-09-01',   '2019-09-01', '2019-09-01', '2019-09-02', '2019-09-03'],
                      'person': [1, 1, 1, 2, 1, 2, 2, 1, 2],
                      'code': [123, 456, 123, 456, 123, 123, 456, 123, 456],
                      'value': [1, 2, 3, 4, 5, 6, 7, 8, 9]
                    })

在进行时间相关的操作之前,将日期列转换为Pandas的datetime类型是至关重要的。

trade['date'] = pd.to_datetime(trade['date'])
view['date'] = pd.to_datetime(view['date'])

我们期望的输出结果是,在原始交易信息的基础上,增加两列:view_dates和view_values,它们分别是以列表形式存储的、在每笔交易前7天内匹配到的浏览记录日期和值。

2. 传统 merge_asof 的局限性

Pandas的merge_asof函数常用于近似合并时序数据。然而,它主要设计用于“最近匹配”场景,通常每个右侧(right)DataFrame的条目最多只能匹配一次。在本例中,我们希望每个交易条目能够匹配到多个浏览历史条目,且这些浏览历史条目可以被不同的交易重复匹配。因此,merge_asof无法直接满足我们的需求。例如,如果使用merge_asof,它可能会将浏览记录[1, 3]分配给第一笔交易,但对于第二笔交易,它可能只会分配[5],而忽略了同样在7天窗口内的[1, 3]。

3. 方法一:使用 pyjanitor.conditional_join (推荐)

pyjanitor库提供了一个强大的conditional_join函数,它允许我们基于多个自定义条件进行DataFrame的连接,包括非等值条件(如时间范围)。这使得它非常适合处理此类复杂的时序数据关联问题,尤其是在处理大规模数据时,其效率通常高于纯Pandas的循环或笛卡尔积合并。

实现步骤

  1. 创建辅助列 start_date: 在trade DataFrame中添加一个start_date列,表示每笔交易发生日期前7天的日期。这将作为我们时间窗口的下限。
  2. 执行 conditional_join: 使用conditional_join函数连接trade和view。
    • 时间条件: 确保view_dates在start_date和trade.date之间(即start_date <= view_dates <= trade.date)。
    • 匹配条件: 确保person和code相等。
    • 重命名列: 在view DataFrame中,将date和value列重命名为view_dates和view_values,以避免与trade中的列名冲突,并明确其来源。
  3. 清理和格式化: 删除不再需要的start_date辅助列,并将view_dates格式化为字符串。
  4. 聚合结果: 根据原始trade DataFrame的列进行分组,然后将匹配到的view_dates和view_values聚合成列表。

示例代码

# 1. 创建辅助列 'start_date'
# 2. 执行 conditional_join
# 3. 清理和格式化
# 4. 聚合结果
out_janitor = (trade
  .assign(start_date=lambda d: d['date'].sub(pd.DateOffset(days=7))) # 计算7天前的日期
  .conditional_join(view.rename(columns={'date': 'view_dates', 'value': 'view_values'}), # 重命名view列
                    ('start_date', 'view_dates', '<='), # 条件1: start_date <= view_dates
                    ('date', 'view_dates', '>='),     # 条件2: trade.date >= view_dates
                    ('person', 'person', '=='),       # 条件3: person 匹配
                    ('code', 'code', '=='),           # 条件4: code 匹配
                    right_columns=['view_dates', 'view_values'] # 保留右侧DataFrame的哪些列
                   )
  .drop(columns='start_date') # 删除辅助列
  .assign(view_dates=lambda d: d['view_dates'].dt.strftime('%Y-%m-%d')) # 格式化日期为字符串
  .groupby(list(trade), as_index=False).agg(list) # 按原始trade列分组并聚合列表
)

print("使用 pyjanitor.conditional_join 的结果:")
print(out_janitor)

输出结果

        date  person  code  value1                            view_dates view_values
0 2019-08-31       1   123       1              [2019-08-29, 2019-08-30]      [1, 3]
1 2019-09-01       1   123       2  [2019-08-29, 2019-08-30, 2019-09-01]   [1, 3, 5]
2 2019-09-04       2   456       3  [2019-08-31, 2019-09-01, 2019-09-03]   [4, 7, 9]

4. 方法二:纯 Pandas 解决方案

如果不想引入额外的库,也可以纯粹使用Pandas的merge和条件筛选来实现。这种方法在概念上更直观,但对于非常大的数据集,其性能可能不如pyjanitor.conditional_join,因为它首先会生成一个潜在的较大中间DataFrame(笛卡尔积或近似笛卡尔积)。

实现步骤

  1. 进行笛卡尔合并: 首先,基于person和code列对trade和view进行合并。这将为每个交易条目与每个匹配的浏览条目创建一个组合。
  2. 应用时间条件筛选: 在合并后的DataFrame上,应用两个时间条件:
    • 浏览日期必须早于交易日期 (trade_date > view_dates)。
    • 浏览日期必须在交易日期前7天之内 (trade_date - 7_days <= view_dates)。
  3. 格式化和聚合: 同样,将view_dates格式化为字符串,然后按原始trade DataFrame的列进行分组,并聚合列表。

示例代码

# 1. 进行笛卡尔合并
# 2. 应用时间条件筛选
# 3. 格式化和聚合
out_pandas = (trade
 .merge(view.rename(columns={'date': 'view_dates', 'value': 'view_values'}), # 重命名view列并合并
        on=['person', 'code'])
 .loc[lambda d: d['date'].gt(d['view_dates']) & # 筛选条件1: 交易日期 > 浏览日期
      d['date'].sub(pd.DateOffset(days=7)).le(d['view_dates']) # 筛选条件2: 交易日期 - 7天 <= 浏览日期
     ]
 .assign(view_dates=lambda d: d['view_dates'].dt.strftime('%Y-%m-%d')) # 格式化日期为字符串
 .groupby(list(trade), as_index=False).agg(list) # 按原始trade列分组并聚合列表
)

print("\n使用纯 Pandas 解决方案的结果:")
print(out_pandas)

输出结果

        date  person  code  value1                            view_dates view_values
0 2019-08-31       1   123       1              [2019-08-29, 2019-08-30]      [1, 3]
1 2019-09-01       1   123       2  [2019-08-29, 2019-08-30, 2019-09-01]   [1, 3, 5]
2 2019-09-04       2   456       3  [2019-08-31, 2019-09-01, 2019-09-03]   [4, 7, 9]

5. 总结与选择

本教程展示了两种在Pandas中实现基于时间窗口的数据关联和聚合的方法:

  • pyjanitor.conditional_join: 这种方法在处理复杂的非等值连接(如时间范围)时表现出色,尤其在性能方面优于纯Pandas的笛卡尔合并加筛选,因为它避免了生成过大的中间DataFrame。当处理大型数据集或需要更灵活的连接条件时,强烈推荐使用此方法。
  • 纯 Pandas merge + 筛选: 这种方法易于理解和实现,不需要额外库。但在数据量较大时,由于可能产生庞大的中间合并结果,其内存消耗和计算效率可能较低。对于中小型数据集或对性能要求不极致的场景,这是一个可行的选择。

选择哪种方法取决于你的具体需求、数据集大小以及对性能和依赖库的偏好。无论选择哪种,关键都在于正确地定义时间窗口条件并使用groupby.agg(list)来收集所有匹配的条目。

今天关于《Pandas时间窗口聚合技巧全解析》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

CSSflex布局入门:display:flex使用教程CSSflex布局入门:display:flex使用教程
上一篇
CSSflex布局入门:display:flex使用教程
学习通快速找课程方法分享
下一篇
学习通快速找课程方法分享
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3182次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3393次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3425次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4529次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3802次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码