Pandas连续相同组最大值快速计算方法
本篇文章给大家分享《Pandas快速计算连续相同组最大值》,覆盖了文章的常见基础知识,其实一个语言的全部知识点一篇文章是不可能说完的,但希望通过这些问题,让读者对自己的掌握程度有一定的认识(B 数),从而弥补自己的不足,更好的掌握它。
引言:理解连续分组求最大值的挑战
在数据分析中,我们经常需要对数据集中的特定模式进行聚合计算。一个常见的需求是,当某一列中出现连续相同的数值时,我们希望对这些连续的行进行分组,并计算其另一列的聚合值(例如最大值、最小值、平均值等)。
考虑以下Pandas DataFrame:
import pandas as pd data = { 'Fruits': ['Apple', 'Apple', 'Banana', 'Orange', 'Apple', 'Apple'], 'Price': [20, 30, 50, 170, 55, 90] } df = pd.DataFrame(data) print(df)
输出:
Fruits Price 0 Apple 20 1 Apple 30 2 Banana 50 3 Orange 170 4 Apple 55 5 Apple 90
我们的目标是:对于连续出现的相同水果(例如连续的“Apple”),找出它们对应的“Price”列中的最大值,并将这个最大值填充回这些连续行的“Max”列中。具体来说,对于索引0和1的两个连续“Apple”,我们期望其“Max”值为30;对于索引4和5的两个连续“Apple”,我们期望其“Max”值为90。
初学者可能会尝试使用循环或基于shift()的条件判断来解决此问题。例如,以下尝试虽然使用了shift(),但存在明显缺陷:
# 初始尝试(存在问题) df_attempt = df.copy() df_attempt['Max'] = 0.0 # 初始化Max列 for x in range(0, df_attempt.shape[0]): condition = (df_attempt['Fruits'] == "Apple") & \ (df_attempt['Fruits'].shift(-1) == "Apple") | \ (df_attempt['Fruits'].shift(1) == "Apple") # 错误:这里计算的是满足条件的所有行的全局最大值,而不是每个连续组的最大值 df_attempt.loc[condition, 'Max'] = df_attempt.loc[condition, 'Price'].max() print(df_attempt)
输出:
Fruits Price Max 0 Apple 20 90.0 1 Apple 30 90.0 2 Banana 50 90.0 3 Orange 170 0.0 4 Apple 55 90.0 5 Apple 90 90.0
这种方法未能达到预期效果,主要原因有两点:
- 条件判断的误区: (df['Fruits'].shift(1)=="Apple") 这样的条件会使得紧跟在“Apple”后面的行(如“Banana”行)也被错误地纳入条件范围。在上述例子中,索引为2的“Banana”行,其前一行(索引1)是“Apple”,因此该条件为真。
- 聚合范围错误: 最关键的问题在于 df_attempt.loc[condition, 'Price'].max() 这一步。它计算的是所有满足 condition 的行的 Price 列的全局最大值(在这个例子中是90),而不是针对每个独立的连续“Apple”组的最大值。因此,所有被条件命中的行都被赋上了同一个全局最大值90。
核心解决方案:利用 shift() 和 cumsum() 创建连续分组ID
Pandas提供了更高效和准确的方法来解决这类连续分组问题,核心在于巧妙地结合使用shift()、ne()和cumsum()来创建唯一的连续组ID,然后配合groupby()和transform()进行聚合。
1. 识别连续值块并生成组ID
首先,我们需要一种机制来识别数据框中“Fruits”列连续相同值的起始点。shift()函数可以帮助我们获取前一行(或后一行)的值,而ne()(不等于)则可以用来比较当前行与前一行是否相同。
- df.Fruits.shift():将“Fruits”列向下移动一行,第一行会变为NaN。
- df.Fruits.ne(df.Fruits.shift()):比较当前“Fruits”值是否与前一个“Fruits”值不相等。如果相等,结果为False;如果不相等(意味着新的连续块开始),结果为True。
import pandas as pd data = { 'Fruits': ['Apple', 'Apple', 'Banana', 'Orange', 'Apple', 'Apple'], 'Price': [20, 30, 50, 170, 55, 90] } df = pd.DataFrame(data) # 步骤一:创建连续分组ID # df.Fruits.shift() -> [NaN, 'Apple', 'Apple', 'Banana', 'Orange', 'Apple'] # df.Fruits.ne(df.Fruits.shift()) -> [True, False, True, True, True, False] # (True表示与前一个不同,即新组开始) grp = df.Fruits.ne(df.Fruits.shift()).cumsum() print("连续分组ID (grp):\n", grp)
cumsum()(累积求和)函数对这个布尔序列进行操作:每当遇到True时,累积和加1。这样,每个连续的相同值块都会被赋予一个唯一的整数ID。
输出:
连续分组ID (grp): 0 1 1 1 2 2 3 3 4 4 5 4 Name: Fruits, dtype: int32
可以看到,索引0和1的“Apple”被分到了组1,索引2的“Banana”被分到了组2,索引3的“Orange”被分到了组3,而索引4和5的“Apple”被分到了组4。这正是我们想要的连续分组。
2. 按组应用聚合操作并广播结果
有了这些组ID,我们就可以使用Pandas的groupby()方法进行分组聚合。为了将聚合结果(例如最大值)填充回原始DataFrame的相应行,我们需要使用transform()方法。
- df.groupby(grp):根据上一步生成的grp序列进行分组。
- ['Price'].transform('max'):在每个分组内部,对“Price”列计算最大值,然后transform()会将这个最大值广播回该组内的所有原始行,确保返回的Series与原DataFrame的索引和长度一致。
完整代码示例
将上述两个步骤结合起来,得到解决问题的完整且高效的代码:
import pandas as pd data = { 'Fruits': ['Apple', 'Apple', 'Banana', 'Orange', 'Apple', 'Apple'], 'Price': [20, 30, 50, 170, 55, 90] } df = pd.DataFrame(data) # 创建连续分组ID grp = df.Fruits.ne(df.Fruits.shift()).cumsum() # 根据分组ID计算每个连续块的Price最大值,并使用transform广播结果 df['Max'] = df.groupby(grp)['Price'].transform('max') print(df)
结果分析与验证
运行上述代码,将得到以下输出:
Fruits Price Max 0 Apple 20 30 1 Apple 30 30 2 Banana 50 50 3 Orange 170 170 4 Apple 55 90 5 Apple 90 90
观察结果,我们可以看到:
- 索引0和1的“Apple”行,其“Max”值均为30,这是它们所在连续组(20, 30)的最大值。
- 索引2的“Banana”行,其“Max”值为50,这是它所在连续组(50)的最大值。
- 索引3的“Orange”行,其“Max”值为170,这是它所在连续组(170)的最大值。
- 索引4和5的“Apple”行,其“Max”值均为90,这是它们所在连续组(55, 90)的最大值。
这完美地满足了我们的需求,并且解决了初始尝试中出现的问题。
注意事项与最佳实践
- 通用性: 这种shift().ne().cumsum()结合groupby().transform()的方法非常通用。它不仅可以用于查找最大值,还可以应用于任何其他聚合函数,如min()、mean()、sum()、count()等,只需替换transform('max')中的聚合函数即可。
- 效率: 相较于使用Python原生的for循环进行行迭代,Pandas的矢量化操作(shift(), ne(), cumsum(), groupby(), transform())在处理大型数据集时效率要高得多,因为它是在C语言层面进行优化计算的。
- 处理 NaN 值: shift()在默认情况下会在第一个位置产生NaN。ne()会将NaN与实际值视为不相等,这通常是期望的行为,因为它会确保第一个非NaN值始终被视为新组的开始。
- 多列分组: 如果需要根据多列的连续相同值进行分组,可以将这些列组合成一个元组或字符串,然后应用相同的ne().cumsum()逻辑。例如:grp = (df['ColA'] + df['ColB']).ne((df['ColA'] + df['ColB']).shift()).cumsum()。
总结
掌握shift().ne().cumsum()与groupby().transform()的组合是Pandas数据处理中的一个重要技巧。它提供了一种优雅、高效且准确的方法来识别和处理数据框中的连续相同值块,并对其进行各种聚合计算。这种模式在处理时间序列数据、日志数据或任何需要基于连续模式进行分析的场景中都非常有用。
以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

- 上一篇
- 电脑频繁重启怎么解决

- 下一篇
- Java序列化漏洞与防护方法
-
- 文章 · python教程 | 11分钟前 |
- Python中*号的多种用法详解
- 121浏览 收藏
-
- 文章 · python教程 | 12分钟前 |
- Python处理脑电数据,MNE教程全解析
- 172浏览 收藏
-
- 文章 · python教程 | 19分钟前 |
- Python类中自定义类型提示方法详解
- 109浏览 收藏
-
- 文章 · python教程 | 52分钟前 | FFmpeg pydub AudioSegment Python音频处理 音频操作
- Python音频处理:pydub库实用教程
- 206浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python类型注解全解析:如何正确使用类型提示
- 252浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python异步编程:asyncio使用全解析
- 218浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python随机数据生成技巧全解析
- 250浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python爬虫开发步骤全解析
- 457浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Poetry私仓安装教程:Token认证详解
- 354浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python快速实现Fire-and-ForgetPOST请求
- 232浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 千音漫语
- 千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
- 112次使用
-
- MiniWork
- MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
- 105次使用
-
- NoCode
- NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
- 125次使用
-
- 达医智影
- 达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
- 116次使用
-
- 智慧芽Eureka
- 智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
- 121次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览