当前位置:首页 > 文章列表 > 文章 > python教程 > Pandas阈值分组:动态停止聚合方法

Pandas阈值分组:动态停止聚合方法

2025-08-01 23:27:32 0浏览 收藏

编程并不是一个机械性的工作,而是需要有思考,有创新的工作,语法是固定的,但解决问题的思路则是依靠人的思维,这就需要我们坚持学习和更新自己的知识。今天golang学习网就整理分享《Pandas阈值分组:动态停止聚合技巧》,文章讲解的知识点主要包括,如果你对文章方面的知识点感兴趣,就不要错过golang学习网,在这可以对大家的知识积累有所帮助,助力开发能力的提升。

Pandas条件式分层分组:基于阈值动态停止聚合

本文介绍了一种在Pandas中进行条件式分层分组的高效方法。该方法允许在多列分组时,根据当前分组的行数是否达到预设阈值,动态决定是否继续向更细粒度分组。通过迭代地聚合和筛选,将满足阈值条件的组保留,而将不满足条件的组进一步向上层聚合,最终实现灵活的、按需停止的分层汇总,避免了复杂的循环和合并操作。

问题背景与需求

在数据分析中,我们经常需要对DataFrame进行多级分组聚合。然而,有时我们希望这种分组行为是条件性的:如果某个分组的行数过少(低于某个预设阈值),我们就不再对该分组进行更细粒度的拆分,而是将其作为当前层级的最终聚合结果。对于行数足够多的分组,则继续进行下一级的分组。

考虑以下示例DataFrame:

import pandas as pd
import numpy as np

df = pd.DataFrame({'a': [1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2],
                   'b': [1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2],
                   'c': [1, 1, 1, 2, 2, 2, 3, 4, 4, 2, 2, 2, 2, 2, 2, 2, 2, 2]
                  })

我们希望按照 ['a', 'b', 'c'] 的顺序进行分组。如果某个分组的行数小于等于阈值(例如,n_threshold = 3),则停止对该分组进行后续列的更细粒度分组。例如,对于 a=1, b=1, c=1,其计数为3,达到阈值,因此停止分组,将其作为最终结果。而 a=1, b=2 整体计数为3,也应停止在 c 列上继续分组,其 c 列应显示为 NaN。最终期望的输出结果如下:

   a  b    c  count
0  1  1  1.0      3
1  1  1  2.0      3
2  2  2  2.0      9
0  1  2  NaN      3

核心思路:迭代聚合与筛选

解决此问题的核心在于采用一种迭代的、自底向上的聚合策略。我们从最细粒度的分组开始(即所有分组列),然后逐步向上(减少分组列),在每一步中检查当前分组的大小。

  1. 初始聚合: 首先对所有指定的分组列进行最细粒度的计数。df.value_counts() 是一个非常高效的方法,它能直接返回基于所有列组合的计数,结果是一个MultiIndex Series。
  2. 迭代处理: 从最细粒度开始,逐级向上(即每次移除最右侧的分组列)。
    • 在当前分组层级上,将低于阈值的组从当前处理集合中分离出来,并将它们添加到最终结果列表中。这些组将不再进行更细粒度的处理。
    • 将高于阈值的组保留在当前处理集合中,它们将在下一轮迭代中进行更粗粒度的聚合。
  3. 结果整合: 将所有迭代中分离出来的结果合并,形成最终的DataFrame。

实现步骤详解

下面是具体的实现代码及其详细解释:

import pandas as pd
import numpy as np

# 示例数据
df = pd.DataFrame({'a': [1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2],
                   'b': [1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2],
                   'c': [1, 1, 1, 2, 2, 2, 3, 4, 4, 2, 2, 2, 2, 2, 2, 2, 2, 2]
                  })

thresh = 3 # 设定阈值

# 获取所有列名,作为初始分组列
cols = list(df.columns)
# 使用 value_counts() 进行初始最细粒度计数,结果是一个MultiIndex Series
s = df.value_counts()

out = [] # 用于存储符合条件的最终分组结果

# 循环处理,直到所有列都被移除或所有组都被处理完毕
while cols and len(s):
    # 根据当前 cols 中的列进行聚合求和。
    # 对于 MultiIndex Series,groupby(level=cols).sum() 会根据指定的层级重新聚合。
    s = s.groupby(level=cols).sum()

    # 找出计数低于或等于阈值的组
    m = s < thresh

    # 将计数大于阈值的组(即 ~m)添加到结果列表 out 中
    # 这些组将不再进行更粗粒度的聚合,因为它们已经满足了当前层级的条件
    out.append(s[~m])

    # 将计数低于阈值的组(即 m)保留,它们需要在下一轮进行更粗粒度的聚合
    s = s[m]

    # 移除最右侧的列,以便在下一轮迭代中进行更粗粒度的聚合
    if cols: # 确保列表不为空,避免pop()错误
        cols.pop()

# 循环结束后,如果 s 中还有剩余的组(即在最粗粒度分组时也低于阈值的组),
# 将它们添加到结果列表 out 中。例如,如果只有一列'a',且'a'的某个值计数也低于阈值。
if len(s):
    out.append(s)

# 将 out 列表中的所有 Series 转换为 DataFrame 并合并
# reset_index() 将 MultiIndex 转换为普通列
out_df = pd.concat([x.reset_index() for x in out])

# 对结果进行排序,使其更具可读性(可选)
out_df = out_df.sort_values(by=list(out_df.columns[:-1]), na_position='last').reset_index(drop=True)

print(out_df)

运行结果与解读

执行上述代码,将得到以下输出:

   a  b    c  count
0  1  1  1.0      3
1  1  1  2.0      3
2  1  2  NaN      3
3  2  2  2.0      9

结果解读:

  • a=1, b=1, c=1 的 count 为3,符合阈值条件,因此保留了 c 列的粒度。
  • a=1, b=1, c=2 的 count 为3,符合阈值条件,因此保留了 c 列的粒度。
  • a=1, b=2 整体的 count 为3(因为它由 a=1, b=2, c=3 和 a=1, b=2, c=4 组成,原始数据中 a=1, b=2, c=3 有1行,a=1, b=2, c=4 有2行,合计3行),当 cols 变为 ['a', 'b'] 时,s['1', '2'] 的计数为3,低于阈值,因此它被停止在 b 这一层级,c 列显示为 NaN,表示不再按 c 细分。
  • a=2, b=2, c=2 的 count 为9,远超阈值,因此一直保持到最细粒度的 c 列。

注意事项与总结

  1. 效率优化: 使用 df.value_counts() 而非 df.groupby().size() 进行初始计数,在处理大型DataFrame时通常会更高效。
  2. NaN 的含义: 结果中出现的 NaN 表示该分组在某个父级层面上就已经达到了阈值,因此不再向下细分。NaN 的位置对应于被停止细分的列。
  3. 列顺序: cols.pop() 的操作是移除列表的最后一个元素,这意味着分组的粒度是从右向左(从最细到最粗)逐渐减小的。因此,输入 df.columns 的顺序会影响分组的层级和停止点。
  4. 灵活性: 这种方法非常灵活,可以根据业务需求动态调整阈值,实现更智能的数据聚合。它避免了复杂的条件判断和多重循环,使得代码更加简洁和高效。
  5. 适用场景: 此方法特别适用于需要进行分层聚合,并且希望根据子组大小动态决定是否继续下钻的场景,例如用户行为分析、产品销量统计等,可以避免生成过多过小的、无意义的细粒度分组。

通过上述迭代聚合与筛选的策略,我们能够优雅地在Pandas中实现基于阈值的条件式分层分组,大大提高了数据处理的效率和灵活性。

终于介绍完啦!小伙伴们,这篇关于《Pandas阈值分组:动态停止聚合方法》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!

Linux资源监控:top与htop对比详解Linux资源监控:top与htop对比详解
上一篇
Linux资源监控:top与htop对比详解
Golang高效读取大文件方法解析
下一篇
Golang高效读取大文件方法解析
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    96次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    89次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    107次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    98次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    98次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码