Pythongroupby高级用法:高效分组统计技巧
想要高效进行Python数据分组统计?Pandas库的`groupby()`方法是你的不二之选。它采用“Split-Apply-Combine”机制,先将数据按指定列拆分成组,然后对每组应用聚合函数(如`sum()`、`mean()`、`count()`等)进行计算,最后将结果合并成新的DataFrame或Series。本文将深入讲解`groupby()`的高级用法,包括单列/多列分组、多种聚合函数组合、自定义聚合、重置索引等,并结合`agg()`实现多层聚合分析。此外,还将探讨`apply()`和`transform()`在处理复杂分组逻辑时的应用,例如广播结果、填充缺失值、计算组内排名等。掌握这些技巧,助你显著提升数据分析效率和灵活性,轻松应对各种数据挑战。
Python中实现数据分组统计的核心方法是Pandas库的groupby(),其核心机制为“Split-Apply-Combine”。1. 首先使用groupby()按一个或多个列分组;2. 然后对每组应用聚合函数(如sum(), mean(), count()等)进行计算;3. 最后将结果合并成一个新的DataFrame或Series。通过groupby()可以实现单列分组、多列分组、多种聚合函数组合、自定义聚合函数、重置索引等操作,还能结合agg()实现多层聚合分析,配合apply()和transform()可执行更复杂的分组逻辑,如广播结果回原始数据结构、填充缺失值、计算组内排名等。掌握groupby及其相关方法能显著提升数据分析效率与灵活性。
Python中实现数据分组统计,Pandas库的groupby
方法无疑是核心利器。它能让你根据一个或多个列的值,将数据高效地拆分成若干组,然后对每组独立进行聚合计算,比如求和、计数、平均值等等。这就像是把一大堆散乱的数据,按照某种内在的逻辑自动分类整理好,方便我们从不同维度去洞察数据背后的规律。

解决方案
要实现数据分组统计,最直接也是最常用的方法就是利用Pandas DataFrame的groupby()
方法。它通常与一个或多个聚合函数(如sum()
, mean()
, count()
, min()
, max()
, std()
, var()
, first()
, last()
, nth()
等)结合使用。

首先,你需要一个DataFrame:
import pandas as pd import numpy as np # 模拟一些销售数据 data = { '产品': ['A', 'B', 'A', 'C', 'B', 'A', 'C', 'B', 'A'], '区域': ['华东', '华北', '华东', '华南', '华北', '华中', '华南', '华中', '华东'], '销售额': [100, 150, 120, 80, 130, 90, 110, 160, 105], '销量': [10, 15, 12, 8, 13, 9, 11, 16, 10] } df = pd.DataFrame(data) print("原始数据:") print(df) print("-" * 30) # 1. 单列分组并求和 # 统计每个产品的总销售额 product_sales = df.groupby('产品')['销售额'].sum() print("按产品统计总销售额:") print(product_sales) print("-" * 30) # 2. 多列分组并计算平均值 # 统计每个区域、每个产品的平均销售额和平均销量 region_product_avg = df.groupby(['区域', '产品'])[['销售额', '销量']].mean() print("按区域和产品统计平均销售额及销量:") print(region_product_avg) print("-" * 30) # 3. 使用agg()进行多种聚合操作 # 统计每个区域的销售额:总和、平均值、最大值 region_agg_sales = df.groupby('区域')['销售额'].agg(['sum', 'mean', 'max']) print("按区域统计销售额的多种指标:") print(region_agg_sales) print("-" * 30) # 4. 使用agg()对不同列应用不同聚合函数 # 统计每个产品:销售额的总和,销量的平均值 product_custom_agg = df.groupby('产品').agg( 总销售额=('销售额', 'sum'), 平均销量=('销量', 'mean') ) print("按产品统计销售额总和与销量平均值:") print(product_custom_agg) print("-" * 30) # 5. 分组后重置索引 # 如果想把分组键也作为普通列而不是索引,可以使用reset_index() reset_index_example = df.groupby('产品')['销售额'].sum().reset_index() print("分组后重置索引:") print(reset_index_example)
groupby()
方法的强大之处在于它的灵活性。你可以根据业务需求,选择任意列作为分组键,然后对目标列应用各种聚合函数。我第一次接触groupby
的时候,觉得它有点像Excel里的数据透视表,但又灵活得多,尤其是在处理大数据集时,那效率简直是飞跃。

理解Pandas Groupby的“三板斧”:Split-Apply-Combine
说实话,很多人用groupby
只是停留在表面,知道怎么写,但不一定理解它背后的工作机制。Pandas的groupby
操作,核心思想其实是“Split-Apply-Combine”(拆分-应用-合并)这个范式。理解这个,能帮你更好地优化代码,解决更复杂的问题。
- Split(拆分): 这是
groupby
的第一步。Pandas会根据你指定的分组键(一个或多个列),将原始DataFrame逻辑上拆分成多个子DataFrame。每个子DataFrame都包含一个唯一分组键对应的所有行。这个过程是内存高效的,它通常不会真的创建很多小的DataFrame副本,而是内部维护一个指向原始数据视图的索引映射。 - Apply(应用): 拆分完成后,Pandas会对每个独立的子DataFrame应用一个函数。这个函数可以是内置的聚合函数(如
sum()
,mean()
),也可以是你自定义的函数。这一步是计算的核心,比如你要求每组的平均值,就是在这里对每个子组的数据进行平均值计算。 - Combine(合并): 最后一步是将所有子DataFrame上应用函数得到的结果,合并成一个最终的DataFrame或Series。这个合并过程会根据分组键重新构建索引,并把聚合结果呈现出来。
掌握了“Split-Apply-Combine”这个概念,你就能更好地预判groupby
的行为,也能在遇到性能瓶颈时,知道从哪个环节去优化。比如,如果你的apply
步骤非常耗时,那可能需要考虑用矢量化操作替代,或者寻找Pandas内置的更优解。有时候,我们可能不自觉地写出一些看似合理但效率低下的groupby
操作,比如对每一组都用apply
去跑一个复杂的自定义函数,这时候就得停下来想想,有没有更Pandasic的办法。
高级聚合与多层索引:解锁复杂分析场景
在实际工作中,数据分析的需求往往比简单求和复杂得多。groupby
结合agg()
方法,可以轻松应对多列分组和多层聚合的场景,甚至还能自定义聚合函数名,让结果更清晰。
当我们需要同时对多个列进行分组,或者对同一列进行多种聚合操作时,agg()
方法就显得尤为重要了。
# 模拟更复杂的销售数据,加入日期 df_complex = pd.DataFrame({ '日期': pd.to_datetime(['2023-01-01', '2023-01-01', '2023-01-02', '2023-01-02', '2023-01-03', '2023-01-03']), '产品': ['A', 'B', 'A', 'C', 'B', 'A'], '区域': ['华东', '华北', '华东', '华南', '华北', '华东'], '销售额': [100, 150, 120, 80, 130, 90], '成本': [50, 70, 60, 40, 65, 45] }) print("\n复杂原始数据:") print(df_complex) print("-" * 30) # 1. 多列分组,对不同列应用不同聚合函数,并自定义输出列名 # 统计每天每个区域:总销售额,平均成本,以及销售额的最高值和最低值 daily_region_stats = df_complex.groupby(['日期', '区域']).agg( 总销售额=('销售额', 'sum'), 平均成本=('成本', 'mean'), 销售额最大值=('销售额', 'max'), 销售额最小值=('销售额', 'min') ) print("每天每区域的销售统计:") print(daily_region_stats) print("-" * 30) # 2. 对同一列应用多个聚合函数,并使用多层列索引 # 统计每个产品的销售额:总和、平均值、标准差 product_multi_agg = df_complex.groupby('产品')['销售额'].agg(['sum', 'mean', 'std']) print("每个产品的销售额多指标统计:") print(product_multi_agg) print("-" * 30) # 3. 如果需要更复杂的自定义聚合,可以传入lambda函数 # 统计每个区域的销售额,并计算一个自定义的“销售额波动范围”(最大值-最小值) region_custom_range = df_complex.groupby('区域')['销售额'].agg( 总销售额='sum', 销售额波动范围=lambda x: x.max() - x.min() ) print("每个区域的销售额波动范围:") print(region_custom_range)
通过agg()
,我们可以构建出非常精细的聚合报表。我记得有次做用户行为分析,需要同时按用户ID和行为类型来统计不同时段的操作次数,groupby(['user_id', 'action_type']).count()
就完美解决了,那种感觉就像是找到了数据里的“密码”。而当需要更深入的分析,比如计算每个用户每次会话的平均时长,或者特定行为的转化率时,agg
配合自定义函数就显得尤为灵活了。
apply()
与transform()
:突破简单聚合的界限
groupby
的强大不仅仅体现在简单的聚合上,它还提供了apply()
和transform()
这两个高级方法,它们能让你在分组数据上执行更复杂、更灵活的操作,甚至可以将结果“广播”回原始DataFrame的形状。
apply()
:自由度最高的“瑞士军刀”apply()
方法会将每个分组作为一个独立的DataFrame(或Series)传递给你定义的函数。这意味着你可以在每个组内执行几乎任何Pandas操作,包括排序、筛选、合并、复杂的计算等等。它的返回值可以是Series、DataFrame,甚至是标量。# 查找每个区域销售额最高的两条记录 def top_n_sales(group, n=2): return group.sort_values(by='销售额', ascending=False).head(n) top_sales_per_region = df_complex.groupby('区域').apply(top_n_sales) print("\n每个区域销售额最高的两条记录:") print(top_sales_per_region) print("-" * 30)
但
apply
也有它的“陷阱”,比如性能问题,如果你的函数能被矢量化操作替代,那最好不要用apply
。它在处理大数据量时可能会比较慢,因为它需要迭代每个组并调用Python函数。transform()
:结果形状不变的“广播器”transform()
方法也对每个分组应用一个函数,但它的关键特性是:它返回的结果必须与原始分组的形状(行数)相同,并且会自动将结果对齐回原始DataFrame的索引。这使得它非常适合用于在组内进行数据标准化、填充缺失值、计算组内排名等操作,而不会改变原始DataFrame的结构。# 计算每个产品的销售额占该产品总销售额的比例 df_complex['销售额占比'] = df_complex.groupby('产品')['销售额'].transform(lambda x: x / x.sum()) print("添加销售额占比列:") print(df_complex) print("-" * 30) # 填充每个区域的缺失销售额为该区域的平均销售额(假设有缺失值) df_with_nan = df_complex.copy() df_with_nan.loc[0, '销售额'] = np.nan df_with_nan.loc[4, '销售额'] = np.nan # 使用transform填充缺失值 df_with_nan['销售额_填充'] = df_with_nan.groupby('区域')['销售额'].transform(lambda x: x.fillna(x.mean())) print("\n填充缺失销售额后的数据:") print(df_with_nan)
transform
则需要特别注意它的返回结果必须和输入组的行数一致,否则会报错。它的优点是性能通常比apply
好,因为它更倾向于使用Pandas的内部优化。
掌握apply
和transform
,意味着你不再局限于简单的聚合,可以进行更细粒度的组内操作,并将结果无缝集成回原始数据结构中。它们是处理复杂分组逻辑,尤其是需要返回与原始数据等长结果时的强大工具。
终于介绍完啦!小伙伴们,这篇关于《Pythongroupby高级用法:高效分组统计技巧》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!

- 上一篇
- MySQL建表全流程操作指南

- 下一篇
- HTML中b标签的使用方法及适用场景
-
- 文章 · python教程 | 6分钟前 |
- Python用Prophet做市场预测教程
- 105浏览 收藏
-
- 文章 · python教程 | 9分钟前 |
- Python代码安全审计:漏洞与防护全解析
- 375浏览 收藏
-
- 文章 · python教程 | 11分钟前 |
- Python快速处理Excel数据技巧
- 403浏览 收藏
-
- 文章 · python教程 | 12分钟前 |
- PythonLambda函数使用教程
- 482浏览 收藏
-
- 文章 · python教程 | 14分钟前 |
- PyCharm解释器位置查找方法
- 247浏览 收藏
-
- 文章 · python教程 | 29分钟前 |
- Python正则分割字符串技巧分享
- 335浏览 收藏
-
- 文章 · python教程 | 37分钟前 |
- Python知识图谱构建全解析
- 446浏览 收藏
-
- 文章 · python教程 | 50分钟前 | 函数式编程 reduce函数 可迭代对象 functools模块 归约
- Pythonreduce函数用法与场景解析
- 330浏览 收藏
-
- 文章 · python教程 | 57分钟前 |
- NumPy索引与PyTorch张量对比解析
- 404浏览 收藏
-
- 文章 · python教程 | 58分钟前 |
- Python插件动态导入技巧分享
- 397浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 509次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 边界AI平台
- 探索AI边界平台,领先的智能AI对话、写作与画图生成工具。高效便捷,满足多样化需求。立即体验!
- 17次使用
-
- 免费AI认证证书
- 科大讯飞AI大学堂推出免费大模型工程师认证,助力您掌握AI技能,提升职场竞争力。体系化学习,实战项目,权威认证,助您成为企业级大模型应用人才。
- 43次使用
-
- 茅茅虫AIGC检测
- 茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
- 167次使用
-
- 赛林匹克平台(Challympics)
- 探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
- 243次使用
-
- 笔格AIPPT
- SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
- 186次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览