Pandas交叉合并检查数值范围方法
本文介绍了如何利用Pandas交叉合并(cross merge)高效检查DataFrame数值范围,并统计满足条件的匹配项数量,旨在解决传统迭代方法在大规模数据集上的性能瓶颈。通过一次性操作实现复杂的条件筛选与计数,显著提升数据处理效率。文章详细阐述了利用Pandas的cross merge功能,以向量化的方式高效完成此类任务的步骤,包括数据准备、交叉合并、条件筛选以及结果统计。同时,也指出了交叉合并的内存消耗问题,并提供了替代方案,例如使用Dask、分块处理或数据库Join操作,为不同规模的数据集提供了灵活的处理策略。掌握Pandas交叉合并技巧,助力高效数据分析。
在数据分析和处理中,我们经常会遇到需要比较两个DataFrame中数据的情况,例如检查一个DataFrame中的数值是否落在另一个DataFrame定义的某个区间内。对于大规模数据集,传统的行迭代方法效率低下,难以满足性能要求。本文将详细阐述如何利用Pandas的cross merge功能,以向量化的方式高效完成此类任务。
1. 场景描述与数据准备
假设我们有两个Pandas DataFrame,df1 包含一系列时间点及其对应的 High、Mid、Low 值,而 df2 包含一些时间段 (Start) 以及对应的 Top 和 Bottom 边界值。我们的目标是,对于 df2 中的每一行,统计 df1 中有多少行满足以下条件:
- df1 的 Date 不等于 df2 的 Start。
- df1 的 High 值大于 df2 的 Bottom 值。
- df1 的 Mid 和 Low 中的最大值小于 df2 的 Top 值。
最终,将匹配的数量存储在 df2 的一个新列 Match 中。
以下是示例数据结构:
import pandas as pd import numpy as np # 示例 df1 data1 = { 'Date': pd.to_datetime(['2023-08-03 00:00:00', '2023-08-03 12:00:00', '2023-08-04 12:00:00', '2023-08-05 00:00:00', '2023-08-05 20:00:00', '2023-11-26 20:00:00', '2023-11-28 00:00:00', '2023-11-28 16:00:00', '2023-11-29 08:00:00', '2023-11-30 04:00:00']), 'High': [29249.8, 29395.8, 29305.2, 29099.9, 29061.6, 37732.1, 37341.4, 38390.7, 38419.0, 38148.9], 'Mid': [29136.6, 29228.1, 29250.1, 29045.3, 29047.1, 37469.9, 37138.2, 38137.2, 38136.3, 37800.1], 'Low': [29152.3, 29105.0, 29137.1, 29073.0, 29044.0, 37370.0, 37254.1, 37534.4, 38112.0, 38040.0] } df1 = pd.DataFrame(data1) df1.index = [1, 4, 10, 13, 18, 696, 703, 707, 711, 716] # 示例 df2 data2 = { 'Start': pd.to_datetime(['2023-11-28 00:00:00', '2023-11-24 12:00:00']), 'Top': [37341.4, 38432.9], 'Bottom': [37138.2, 37894.4] } df2 = pd.DataFrame(data2) print("df1:") print(df1) print("\ndf2:") print(df2)
2. 迭代式解决方案及其局限性
一个直观但效率低下的方法是使用循环迭代 df1 的每一行,并在 df2 上应用条件筛选:
# 初始化 df2 的 'Match' 列 df2['Match'] = 0 # 迭代式解决方案 (低效) # for idx in df1.index: # df2.loc[ # (df2.Start != df1.at[idx, 'Date']) & # (df2.Bottom < df1.at[idx, 'High']) & # (df2.Top > df1.loc[idx, ['Mid', 'Low']].max()), # 'Match'] += 1 # print("\n迭代式结果 (注释掉以避免运行):") # print(df2)
这种方法通过Python循环逐行处理,每迭代一次都会对 df2 进行一次条件判断和赋值操作。当 df1 或 df2 的行数较大时,这种逐行操作的开销会非常显著,导致性能瓶颈。Pandas的设计理念是鼓励向量化操作,避免显式的Python循环。
3. 基于交叉合并的高效解决方案
为了避免迭代,我们可以利用Pandas的merge函数进行cross merge(交叉合并),它会创建两个DataFrame所有行组合的笛卡尔积。然后,我们可以对这个合并后的巨大DataFrame进行一次性、向量化的条件筛选。
# 确保df2的原始索引在合并后可用,以便后续计数 df2_temp = df2.reset_index() # 执行交叉合并,创建所有可能的行组合 # 合并后的DataFrame将包含df2的每一行与df1的每一行的组合 merged_df = df2_temp.merge(df1, how='cross') # 应用所有筛选条件 # 注意:x['Mid', 'Low'].max(axis=1) 用于获取每行Mid和Low的最大值 filtered_matches = merged_df.loc[ (merged_df.Start != merged_df.Date) & (merged_df.Bottom < merged_df.High) & (merged_df.Top > merged_df[['Mid', 'Low']].max(axis=1)) ] # 统计每个原始df2索引的匹配数量 # value_counts('index') 会统计在filtered_matches中,每个原始df2索引出现的次数 match_counts = filtered_matches.value_counts('index') # 将匹配数量重新索引回df2的原始索引,未匹配的填0 # reindex确保所有df2的原始索引都存在,即使它们没有匹配项 df2['Match'] = match_counts.reindex(df2.index, fill_value=0) print("\n交叉合并解决方案结果:") print(df2)
代码解析:
- df2_temp = df2.reset_index(): 在进行交叉合并之前,我们先将 df2 的索引重置,将其转换为一个普通列(名为index)。这样做是为了在合并后能够识别出每个匹配项是属于 df2 的哪一行,因为value_counts需要一个列名来计数。
- merged_df = df2_temp.merge(df1, how='cross'): 这是核心步骤。它将 df2_temp 和 df1 进行交叉合并,生成一个包含 len(df2) * len(df1) 行的新DataFrame。这个DataFrame的每一行都是 df2 的一行与 df1 的一行的组合。
- filtered_matches = merged_df.loc[...]: 对合并后的 merged_df 应用所有条件进行筛选。由于 merged_df 包含了所有列,我们可以直接使用列名进行向量化比较。
- merged_df.Start != merged_df.Date: 比较日期不相等。
- merged_df.Bottom < merged_df.High: 比较 Bottom 和 High。
- merged_df.Top > merged_df[['Mid', 'Low']].max(axis=1): 这一步很关键,它首先从 Mid 和 Low 列中找出每行的最大值(axis=1 表示按行操作),然后与 Top 进行比较。
- match_counts = filtered_matches.value_counts('index'): 在筛选后的 filtered_matches 中,我们统计原始 df2 索引(即 df2_temp 中 index 列的值)出现的次数。这直接给出了每个 df2 行的匹配数量。
- df2['Match'] = match_counts.reindex(df2.index, fill_value=0): 最后,我们将统计结果赋值给 df2 的 Match 列。reindex 函数确保 df2 的所有原始索引都得到处理。如果某个 df2 的行没有匹配项(即其索引不在 match_counts 中),reindex 会用 fill_value=0 填充其 Match 值。
4. 性能考量与注意事项
- 内存消耗: cross merge 的主要缺点是内存消耗。合并后的DataFrame的大小是 len(df1) * len(df2)。如果 df1 和 df2 都非常大,例如各有数十万行,那么合并后的DataFrame将会有数万亿行,这会迅速耗尽系统内存。因此,在使用 cross merge 之前,务必评估数据集的大小。对于本例中的小数据集,这种方法非常高效。
- 适用场景: cross merge 最适合于其中一个或两个DataFrame相对较小,或者总的笛卡尔积在可接受内存范围内的场景。
- 条件复杂性: 这种方法能够优雅地处理复杂的组合条件,所有条件都可以一次性地应用到合并后的DataFrame上,充分利用Pandas的向量化能力。
- 替代方案: 对于超大型数据集,如果 cross merge 不可行,可能需要考虑其他策略,例如:
- 使用Dask等分布式计算库。
- 将问题分解为更小的批次处理(分块处理)。
- 利用数据库的Join操作进行预处理。
- 如果条件允许,考虑使用Cython或Numba等工具优化Python循环。
总结
通过使用Pandas的cross merge功能,我们可以将两个DataFrame之间的复杂条件比较和匹配计数任务,从低效的迭代模式转换为高性能的向量化操作。这种方法显著提升了代码的执行效率和可读性,是处理中小型数据集交叉比较问题的强大工具。然而,在使用时必须密切关注其内存消耗,以避免潜在的性能问题。正确评估数据集规模并选择合适的工具,是高效数据处理的关键。
以上就是《Pandas交叉合并检查数值范围方法》的详细内容,更多关于的资料请关注golang学习网公众号!

- 上一篇
- 安装Golang后如何验证环境是否配置成功

- 下一篇
- Python多层数据结构遍历技巧
-
- 文章 · python教程 | 25分钟前 |
- Matplotlib画圆形温度热力图教程
- 218浏览 收藏
-
- 文章 · python教程 | 34分钟前 |
- Python天气应用开发教程:API调用全解析
- 109浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- 迭代器与生成器有什么不同
- 165浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Pandas多列比对找不匹配数据技巧
- 302浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python编程实用指南:用途全解析
- 165浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- AWS部署Django:数据库迁移与配置优化
- 231浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Docker安装Zipline错误解决指南
- 500浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Redis缓存技巧与数据结构解析
- 272浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python闭包怎么用?函数嵌套技巧详解
- 247浏览 收藏
-
- 文章 · python教程 | 2小时前 | 数据可视化 Pandas 特征工程 JupyterNotebook 数据探索分析
- JupyterNotebook数据探索分析指南
- 108浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python单例哨兵模式实现方法
- 127浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python数据清洗:pandas预处理技巧解析
- 427浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 514次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 千音漫语
- 千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
- 1209次使用
-
- MiniWork
- MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
- 1158次使用
-
- NoCode
- NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
- 1190次使用
-
- 达医智影
- 达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
- 1206次使用
-
- 智慧芽Eureka
- 智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
- 1189次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览