Pandas多级分组聚合方法详解
学习文章要努力,但是不要急!今天的这篇文章《Pandas多级分组聚合技巧详解》将会介绍到等等知识点,如果你想深入学习文章,可以关注我!我会持续更新相关文章的,希望对大家都能有所帮助!
在Pandas中实现多级分组聚合的核心方法是使用groupby()并传入多个列名列表,随后调用聚合函数。1. 创建或加载包含多个分类列和数值列的数据;2. 使用groupby(['列名1', '列名2'])指定多级分组键;3. 通过sum()、mean()等函数进行统一聚合,或使用agg()方法实现更灵活的聚合逻辑,如对不同列应用不同函数或自定义函数;4. 聚合结果可通过reset_index()扁平化索引、unstack()进行数据透视,或使用loc进行层次化数据选择,以便后续分析。

Pandas中实现数据的多级分组聚合,核心在于groupby()方法。你只需将需要作为分组依据的多个列名以列表的形式传递给它,然后链式调用各种聚合函数,如sum()、mean()、count(),或者使用更灵活的agg()方法来应用多种聚合操作。这种方式能让你从不同维度、不同层级深入挖掘数据,发现单层分组难以察觉的模式和洞察。

解决方案
多级分组聚合的核心步骤包括:
- 创建或加载数据: 准备一个包含需要分析的多个分类列和数值列的DataFrame。
- 指定多级分组键: 将作为分组依据的列名放入一个Python列表中,传递给
df.groupby()。 - 选择聚合列并应用聚合函数: 在
groupby对象上直接调用聚合函数(如.sum()、.mean()),或者使用.agg()方法进行更复杂的聚合操作。
这里是一个具体的例子:

假设我们有一个销售数据,包含区域(Region)、产品类别(Product_Category)、销售额(Sales)和数量(Quantity)。我们想按区域和产品类别来统计总销售额和平均销售数量。
import pandas as pd
import numpy as np
# 模拟数据
data = {
'Region': ['North', 'South', 'North', 'East', 'South', 'North', 'East', 'West', 'North', 'South'],
'Product_Category': ['Electronics', 'Clothing', 'Electronics', 'Books', 'Electronics', 'Books', 'Clothing', 'Electronics', 'Books', 'Clothing'],
'Sales': [1200, 800, 1500, 300, 900, 450, 600, 1000, 700, 550],
'Quantity': [5, 3, 7, 2, 4, 3, 2, 5, 4, 3]
}
df = pd.DataFrame(data)
# 多级分组并聚合
# 方法一:直接调用聚合函数(适用于所有数值列应用相同聚合)
# grouped_df_simple = df.groupby(['Region', 'Product_Category']).sum()
# print("简单聚合结果:\n", grouped_df_simple)
# 方法二:使用agg()进行更灵活的聚合
# 针对特定列应用不同函数,并可以重命名结果列
grouped_df_complex = df.groupby(['Region', 'Product_Category']).agg(
total_sales=('Sales', 'sum'), # 计算销售额总和,并命名为total_sales
average_quantity=('Quantity', 'mean'), # 计算数量平均值,并命名为average_quantity
num_transactions=('Sales', 'count') # 计算每个组的交易次数
)
print("复杂聚合结果:\n", grouped_df_complex)
# 如果想对所有数值列应用多个聚合函数
# grouped_all_multi_agg = df.groupby(['Region', 'Product_Category']).agg(['sum', 'mean', 'count'])
# print("\n所有数值列多函数聚合结果:\n", grouped_all_multi_agg)这段代码首先创建了一个示例DataFrame。然后,通过df.groupby(['Region', 'Product_Category'])指定了“区域”和“产品类别”作为两级分组的依据。接着,agg()方法被用来定义具体的聚合操作:计算每个组的总销售额(total_sales)、平均销售数量(average_quantity)以及交易次数(num_transactions)。这种方式不仅灵活,还能清晰地为聚合后的列命名。

为什么常规的单层分组聚合无法满足复杂分析需求?
我个人在数据探索时,就经常发现,单一维度的聚合往往只是冰山一角,真正有价值的洞察,往往藏在多维度的交叉审视里。试想一下,如果我只按“区域”来统计总销售额,我能知道哪个区域卖得最好,但却无法得知在这个区域里,具体是哪类产品贡献了大部分销售,或者哪些产品表现不佳。这种信息缺失,就导致了决策上的盲区。
单层分组就像你只看一张地图的某个局部,而多级分组则提供了不同缩放级别的视角。比如,你可能发现“北方”区域的总销售额很高,这听起来不错。但如果进一步按“产品类别”分组,你可能会惊奇地发现,北方区域的销售额主要是由“电子产品”贡献的,而“图书”类别在这个区域的销售却非常惨淡。这种细致入微的发现,是单层聚合无法提供的。它揭示了数据背后的层次结构和更深层次的业务问题,比如北方区域的图书销售策略可能需要调整,或者电子产品有更大的市场潜力。这种层次化的信息,是构建复杂业务模型、进行精准营销或优化供应链的关键。
如何在多级分组中应用不同的聚合函数或自定义聚合逻辑?
这就像你在厨房里做菜,不是所有食材都只用一种烹饪方法,有些需要蒸,有些需要炒,聚合也是如此,得按需定制。Pandas的agg()方法在这方面提供了极大的灵活性。你可以针对不同的列应用不同的聚合函数,甚至对同一列应用多个函数,或者定义你自己的聚合逻辑。
为不同列应用不同聚合函数: 这是最常见的需求。比如,我们想看每个区域-产品组合的总销售额和平均数量。
# 继续使用之前的df agg_result = df.groupby(['Region', 'Product_Category']).agg( total_sales=('Sales', 'sum'), avg_quantity=('Quantity', 'mean') ) print("\n不同列应用不同函数:\n", agg_result)对同一列应用多个聚合函数: 有时候,我们想从多个角度审视一个指标。例如,除了总销售额,我们还想知道每个分组的销售额最大值和最小值。
multi_func_on_one_col = df.groupby(['Region', 'Product_Category']).agg( sales_sum=('Sales', 'sum'), sales_max=('Sales', 'max'), sales_min=('Sales', 'min') ) print("\n同一列应用多个函数:\n", multi_func_on_one_col)或者更简洁地,直接传递函数列表:
multi_func_list = df.groupby(['Region', 'Product_Category'])['Sales'].agg(['sum', 'mean', 'max']) print("\n对单列直接应用函数列表:\n", multi_func_list)使用自定义聚合函数: 如果Pandas内置的聚合函数无法满足你的需求,你可以定义自己的Python函数,并将其传递给
agg()。这个函数会接收一个Series作为输入(即每个分组的某列数据),并返回一个单一值。# 定义一个自定义函数,例如计算销售额的标准差与平均值的比率 def sales_variation_ratio(series): if series.mean() == 0: return 0 return series.std() / series.mean() custom_agg_result = df.groupby(['Region', 'Product_Category']).agg( total_sales=('Sales', 'sum'), sales_ratio=('Sales', sales_variation_ratio) # 使用自定义函数 ) print("\n使用自定义聚合函数:\n", custom_agg_result)这种灵活性使得
agg()成为处理复杂聚合任务的利器,它远不止是简单的求和或求平均。
多级分组聚合后如何进行数据透视或进一步的层次化分析?
处理完多级聚合的结果,我常会发现,原始的MultiIndex虽然强大,但视觉上并不总是那么直观。这时候,透视一下或者干脆扁平化,往往能让数据“说话”更清晰。聚合后的DataFrame通常会带有一个MultiIndex(多级索引),这在进行后续的层次化分析时非常有用。
扁平化索引:
reset_index()这是最常用的操作之一。它将MultiIndex转换为普通的列,使DataFrame回到一个更“平坦”的结构,方便导出到CSV或进行其他非层次化的操作。# 假设我们有之前的grouped_df_complex # grouped_df_complex = df.groupby(['Region', 'Product_Category']).agg( # total_sales=('Sales', 'sum'), # average_quantity=('Quantity', 'mean'), # num_transactions=('Sales', 'count') # ) flattened_df = grouped_df_complex.reset_index() print("\n扁平化后的DataFrame:\n", flattened_df)这会把
Region和Product_Category从索引变成普通的数据列。数据透视:
unstack()当你的MultiIndex结果需要进行交叉表式的展示时,unstack()就显得非常有用。它能将MultiIndex的一个或多个级别“旋转”成列。# 将Product_Category从索引级别旋转到列 pivoted_df = grouped_df_complex.unstack(level='Product_Category') print("\n透视后的DataFrame (unstack):\n", pivoted_df) # unstack后,列名会变成MultiIndex,可以进一步扁平化 # pivoted_df.columns = ['_'.join(col).strip() for col in pivoted_df.columns.values] # print("\n透视并扁平化列名:\n", pivoted_df)unstack()操作会将Product_Category的每个唯一值变成新的列名,非常适合制作汇总表格。注意,unstack()后,列名本身也可能变成MultiIndex,这需要根据后续分析需求进行处理(例如,使用列表推导式来扁平化列名)。层次化选择数据:
loc与切片 即使不扁平化或透视,MultiIndex也允许你进行非常精细的层次化数据选择。# 选择某个特定区域的所有产品类别数据 north_data = grouped_df_complex.loc['North'] print("\n选择'North'区域的数据:\n", north_data) # 选择某个特定区域的特定产品类别数据 north_electronics_data = grouped_df_complex.loc[('North', 'Electronics')] print("\n选择'North'区域'Electronics'类别的数据:\n", north_electronics_data) # 使用切片选择多个区域或产品类别(需要排序索引) # grouped_df_complex_sorted = grouped_df_complex.sort_index() # print("\n排序后的数据(切片需要):\n", grouped_df_complex_sorted) # slice_data = grouped_df_complex_sorted.loc[('North':'South', 'Books':'Electronics'), :] # print("\n切片选择数据:\n", slice_data)通过这些操作,你可以在保持数据层次结构的同时,灵活地展现和分析多级分组聚合的结果,为后续的数据可视化或更深层的统计建模打下基础。
今天关于《Pandas多级分组聚合方法详解》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!
AWSLambda快速入门:5分钟生成AI函数
- 上一篇
- AWSLambda快速入门:5分钟生成AI函数
- 下一篇
- Java集合遍历:Iterator使用详解
-
- 文章 · python教程 | 2分钟前 |
- pandas缺失值处理技巧与方法
- 408浏览 收藏
-
- 文章 · python教程 | 43分钟前 |
- TF变量零初始化与优化器关系解析
- 427浏览 收藏
-
- 文章 · python教程 | 46分钟前 |
- Python字符串与列表反转技巧
- 126浏览 收藏
-
- 文章 · python教程 | 57分钟前 | Python 错误处理 AssertionError 生产环境 assert语句
- Python断言失败解决方法详解
- 133浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- 动态设置NetCDF图表标题的实用方法
- 247浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- PyCharm切换英文界面教程
- 405浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Behave教程:单个BDD示例运行方法
- 411浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- PythonGTK3动态CSS技巧分享
- 497浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- SciPyCSR矩阵行非零元素高效提取方法
- 411浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python文件读取技巧:strip与split使用解析
- 349浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python处理CSV列数不一致与编码问题详解
- 490浏览 收藏
-
- 文章 · python教程 | 2小时前 | docker Python 虚拟环境 跨平台 pyinstaller
- Python跨平台开发全解析
- 424浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3201次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3414次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3444次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4552次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3822次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

