当前位置:首页 > 文章列表 > 文章 > python教程 > Pandas连续分组与最大值计算技巧

Pandas连续分组与最大值计算技巧

2025-08-08 09:21:30 0浏览 收藏

大家好,今天本人给大家带来文章《Pandas连续值分组技巧与最大值计算》,文中内容主要涉及到,如果你对文章方面的知识点感兴趣,那就请各位朋友继续看下去吧~希望能真正帮到你们,谢谢!

Pandas技巧:高效处理连续相同值分组并计算最大值

本文详细介绍了在Pandas中如何高效地识别并处理数据框中连续相同的分组,并针对这些分组计算指定列的最大值。通过巧妙运用shift()、ne()和cumsum()组合创建连续分组ID,并结合groupby()和transform()方法,实现精确的组内最大值计算,避免了传统循环和错误条件判断带来的问题,极大提升了数据处理的效率和准确性。

在数据分析中,我们经常会遇到需要对数据框中连续出现相同值的行进行分组,并对每个这样的连续分组执行聚合操作(如求最大值、最小值、平均值等)的需求。这种“连续分组”的需求与简单的按某一列值分组有所不同,它强调的是值的“相邻性”。

常见误区与挑战

初学者在处理这类问题时,往往会尝试使用循环或复杂的条件判断来解决。例如,考虑以下原始数据:

import pandas as pd

data = {
    'Fruits': ['Apple', 'Apple', 'Banana', 'Orange', 'Apple', 'Apple'],
    'Price': [20, 30, 50, 170, 55, 90]
}

df = pd.DataFrame(data)

期望的结果是,第一组连续的“Apple”行(索引0和1)的Max值为30,第二组连续的“Apple”行(索引4和5)的Max值为90。

一种常见的尝试可能类似于以下代码:

# 初始尝试(存在问题)
df['Max'] = 0.0
for x in range(0, df.shape[0]):
    condition = (df['Fruits'] == "Apple") & (df['Fruits'].shift(-1) == "Apple") | (df['Fruits'].shift(1) == "Apple")
    df.loc[condition, 'Max'] = df.loc[condition, 'Price'].max()

这段代码存在几个主要问题:

  1. 效率低下: 使用for循环遍历DataFrame行在Pandas中通常不是最佳实践,尤其对于大数据集。
  2. 条件逻辑错误: condition的判断逻辑过于宽泛。例如,df['Fruits'].shift(1)=="Apple"会使得索引为2的'Banana'行也满足条件(因为其上一行是'Apple'),从而被包含在筛选中。
  3. 聚合范围不准确: df.loc[condition,'Price'].max()是在所有满足condition的行中计算一个全局最大值,而不是针对每个独立的连续分组。这导致所有满足条件的行都被赋予了同一个最大值(例如,示例中'Banana'行也被错误地赋予了90.0)。

为了克服这些问题,我们需要一种更Pandas化、更高效且逻辑更严谨的方法来识别并处理连续分组。

构建连续分组标识

解决连续分组问题的关键在于为每个连续的相同值块生成一个唯一的标识符。Pandas提供了强大的工具来完成这一任务,核心思想是利用shift()、ne()和cumsum()的组合。

  1. df['Fruits'].shift(): 创建一个新Series,其中每个元素是原Series中前一行的值。这使得我们可以比较当前行和前一行的值。
  2. df['Fruits'].ne(df['Fruits'].shift()): ne()代表“不等于”。这个操作会返回一个布尔Series,当当前行的值与前一行的值不同时为True,否则为False。这意味着每当一个连续块的起始点(即值发生变化)时,就会出现一个True。
  3. .cumsum(): cumsum()是累积求和。当应用于布尔Series时,True被视为1,False被视为0。因此,每遇到一个True(即一个新连续块的开始),累积和就会增加1。这样,同一个连续块内的所有行将拥有相同的累积和值,从而形成一个完美的连续分组ID。

让我们通过一个例子来理解这个过程:

df = pd.DataFrame({
    'Fruits': ['Apple', 'Apple', 'Banana', 'Orange', 'Apple', 'Apple'],
    'Price': [20, 30, 50, 170, 55, 90]
})

# 步骤1: 检查当前行与前一行是否不同
# df.Fruits.shift() -> [NaN, 'Apple', 'Apple', 'Banana', 'Orange', 'Apple']
# df.Fruits.ne(df.Fruits.shift()) -> [True, False, True, True, True, False] (NaN在ne中被视为不同)

# 步骤2: 累积求和生成分组ID
grp = df.Fruits.ne(df.Fruits.shift()).cumsum()
print(grp)

输出的grp Series将是:

0    1
1    1
2    2
3    3
4    4
5    4
Name: Fruits, dtype: int64

可以看到,grp成功地为第一组“Apple”生成了ID 1,为“Banana”生成了ID 2,为“Orange”生成了ID 3,为第二组“Apple”生成了ID 4。这正是我们所需的连续分组标识。

应用组内聚合与结果回填

有了连续分组标识grp,我们就可以使用Pandas的groupby()方法进行分组聚合。为了将聚合结果(例如最大值)“回填”到原始DataFrame的相应行中,我们需要使用transform()方法,而不是agg()或apply()。

  • df.groupby(grp): 按照我们刚刚创建的grp Series进行分组。
  • ['Price']: 选择我们希望聚合的列,这里是Price。
  • .transform('max'): 这是关键一步。transform()方法会对每个分组执行指定的聚合操作(这里是max),然后将结果广播回原始DataFrame的形状,确保每个原始行都对应其所属分组的聚合结果。这与agg()或apply()不同,它们通常会返回一个聚合后的Series,其索引是分组键。

将这些步骤整合起来,完整的解决方案如下:

import pandas as pd

data = {
    'Fruits': ['Apple', 'Apple', 'Banana', 'Orange', 'Apple', 'Apple'],
    'Price': [20, 30, 50, 170, 55, 90]
}

df = pd.DataFrame(data)

# 1. 构建连续分组标识
grp = df.Fruits.ne(df.Fruits.shift()).cumsum()

# 2. 对连续分组进行聚合,并使用transform将结果回填
df['Max'] = df.groupby(grp)['Price'].transform('max')

print(df)

输出结果:

   Fruits  Price  Max
0   Apple     20   30
1   Apple     30   30
2  Banana     50   50
3  Orange    170  170
4   Apple     55   90
5   Apple     90   90

结果分析:

  • 对于索引0和1的“Apple”行,Max值是其所在连续分组的最大价格30。
  • 对于索引2的“Banana”行,Max值是其所在连续分组的最大价格50。
  • 对于索引3的“Orange”行,Max值是其所在连续分组的最大价格170。
  • 对于索引4和5的“Apple”行,Max值是其所在连续分组的最大价格90。

这个结果完全符合我们的预期,并且通过Pandas的向量化操作实现了高效计算。

注意事项与扩展

  1. 通用性: 这种方法不仅适用于计算最大值,也适用于其他聚合函数,如min()、mean()、sum()、count()等。只需将transform('max')替换为相应的聚合函数即可。
  2. 适用于任何列: Fruits列可以替换为DataFrame中的任何其他列,只要该列是您希望进行连续分组的依据。
  3. 效率优势: 相比于使用for循环或apply自定义函数,groupby().transform()结合shift().ne().cumsum()是处理这类问题的推荐方法,因为它充分利用了Pandas底层的优化,性能表现优异。
  4. 初始NaN处理: df.Fruits.shift()在Series的第一个位置会产生NaN。ne()方法能够正确处理NaN,将其视为与任何非NaN值不同,因此第一个元素总是会触发True,确保第一个连续块被正确识别。

总结

在Pandas中处理按连续相同值分组并进行聚合的需求时,核心在于巧妙地构建连续分组的标识符。通过df[column].ne(df[column].shift()).cumsum()的组合,我们可以高效地生成这些标识符。随后,利用df.groupby(group_id)[value_column].transform(aggregate_function),可以精准地将聚合结果回填到原始DataFrame的对应行中。掌握这一技巧,将极大地提升您在Pandas中处理复杂数据分组问题的能力。

以上就是《Pandas连续分组与最大值计算技巧》的详细内容,更多关于的资料请关注golang学习网公众号!

referrerpolicy属性详解与使用场景referrerpolicy属性详解与使用场景
上一篇
referrerpolicy属性详解与使用场景
Golang日志写入优化与并发安全解析
下一篇
Golang日志写入优化与并发安全解析
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • PandaWiki开源知识库:AI大模型驱动,智能文档与AI创作、问答、搜索一体化平台
    PandaWiki开源知识库
    PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
    342次使用
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    1125次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    1155次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    1158次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    1228次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码