当前位置:首页 > 文章列表 > 文章 > python教程 > Pandas多级分组聚合方法详解

Pandas多级分组聚合方法详解

2025-08-13 23:24:50 0浏览 收藏

学习文章要努力,但是不要急!今天的这篇文章《Pandas多级分组聚合技巧详解》将会介绍到等等知识点,如果你想深入学习文章,可以关注我!我会持续更新相关文章的,希望对大家都能有所帮助!

在Pandas中实现多级分组聚合的核心方法是使用groupby()并传入多个列名列表,随后调用聚合函数。1. 创建或加载包含多个分类列和数值列的数据;2. 使用groupby(['列名1', '列名2'])指定多级分组键;3. 通过sum()、mean()等函数进行统一聚合,或使用agg()方法实现更灵活的聚合逻辑,如对不同列应用不同函数或自定义函数;4. 聚合结果可通过reset_index()扁平化索引、unstack()进行数据透视,或使用loc进行层次化数据选择,以便后续分析。

Pandas中如何实现数据的多级分组聚合?复杂分析技巧

Pandas中实现数据的多级分组聚合,核心在于groupby()方法。你只需将需要作为分组依据的多个列名以列表的形式传递给它,然后链式调用各种聚合函数,如sum()mean()count(),或者使用更灵活的agg()方法来应用多种聚合操作。这种方式能让你从不同维度、不同层级深入挖掘数据,发现单层分组难以察觉的模式和洞察。

Pandas中如何实现数据的多级分组聚合?复杂分析技巧

解决方案

多级分组聚合的核心步骤包括:

  1. 创建或加载数据: 准备一个包含需要分析的多个分类列和数值列的DataFrame。
  2. 指定多级分组键: 将作为分组依据的列名放入一个Python列表中,传递给df.groupby()
  3. 选择聚合列并应用聚合函数:groupby对象上直接调用聚合函数(如.sum().mean()),或者使用.agg()方法进行更复杂的聚合操作。

这里是一个具体的例子:

Pandas中如何实现数据的多级分组聚合?复杂分析技巧

假设我们有一个销售数据,包含区域(Region)、产品类别(Product_Category)、销售额(Sales)和数量(Quantity)。我们想按区域和产品类别来统计总销售额和平均销售数量。

import pandas as pd
import numpy as np

# 模拟数据
data = {
    'Region': ['North', 'South', 'North', 'East', 'South', 'North', 'East', 'West', 'North', 'South'],
    'Product_Category': ['Electronics', 'Clothing', 'Electronics', 'Books', 'Electronics', 'Books', 'Clothing', 'Electronics', 'Books', 'Clothing'],
    'Sales': [1200, 800, 1500, 300, 900, 450, 600, 1000, 700, 550],
    'Quantity': [5, 3, 7, 2, 4, 3, 2, 5, 4, 3]
}
df = pd.DataFrame(data)

# 多级分组并聚合
# 方法一:直接调用聚合函数(适用于所有数值列应用相同聚合)
# grouped_df_simple = df.groupby(['Region', 'Product_Category']).sum()
# print("简单聚合结果:\n", grouped_df_simple)

# 方法二:使用agg()进行更灵活的聚合
# 针对特定列应用不同函数,并可以重命名结果列
grouped_df_complex = df.groupby(['Region', 'Product_Category']).agg(
    total_sales=('Sales', 'sum'),           # 计算销售额总和,并命名为total_sales
    average_quantity=('Quantity', 'mean'),  # 计算数量平均值,并命名为average_quantity
    num_transactions=('Sales', 'count')     # 计算每个组的交易次数
)
print("复杂聚合结果:\n", grouped_df_complex)

# 如果想对所有数值列应用多个聚合函数
# grouped_all_multi_agg = df.groupby(['Region', 'Product_Category']).agg(['sum', 'mean', 'count'])
# print("\n所有数值列多函数聚合结果:\n", grouped_all_multi_agg)

这段代码首先创建了一个示例DataFrame。然后,通过df.groupby(['Region', 'Product_Category'])指定了“区域”和“产品类别”作为两级分组的依据。接着,agg()方法被用来定义具体的聚合操作:计算每个组的总销售额(total_sales)、平均销售数量(average_quantity)以及交易次数(num_transactions)。这种方式不仅灵活,还能清晰地为聚合后的列命名。

Pandas中如何实现数据的多级分组聚合?复杂分析技巧

为什么常规的单层分组聚合无法满足复杂分析需求?

我个人在数据探索时,就经常发现,单一维度的聚合往往只是冰山一角,真正有价值的洞察,往往藏在多维度的交叉审视里。试想一下,如果我只按“区域”来统计总销售额,我能知道哪个区域卖得最好,但却无法得知在这个区域里,具体是哪类产品贡献了大部分销售,或者哪些产品表现不佳。这种信息缺失,就导致了决策上的盲区。

单层分组就像你只看一张地图的某个局部,而多级分组则提供了不同缩放级别的视角。比如,你可能发现“北方”区域的总销售额很高,这听起来不错。但如果进一步按“产品类别”分组,你可能会惊奇地发现,北方区域的销售额主要是由“电子产品”贡献的,而“图书”类别在这个区域的销售却非常惨淡。这种细致入微的发现,是单层聚合无法提供的。它揭示了数据背后的层次结构和更深层次的业务问题,比如北方区域的图书销售策略可能需要调整,或者电子产品有更大的市场潜力。这种层次化的信息,是构建复杂业务模型、进行精准营销或优化供应链的关键。

如何在多级分组中应用不同的聚合函数或自定义聚合逻辑?

这就像你在厨房里做菜,不是所有食材都只用一种烹饪方法,有些需要蒸,有些需要炒,聚合也是如此,得按需定制。Pandas的agg()方法在这方面提供了极大的灵活性。你可以针对不同的列应用不同的聚合函数,甚至对同一列应用多个函数,或者定义你自己的聚合逻辑。

  1. 为不同列应用不同聚合函数: 这是最常见的需求。比如,我们想看每个区域-产品组合的总销售额和平均数量。

    # 继续使用之前的df
    agg_result = df.groupby(['Region', 'Product_Category']).agg(
        total_sales=('Sales', 'sum'),
        avg_quantity=('Quantity', 'mean')
    )
    print("\n不同列应用不同函数:\n", agg_result)
  2. 对同一列应用多个聚合函数: 有时候,我们想从多个角度审视一个指标。例如,除了总销售额,我们还想知道每个分组的销售额最大值和最小值。

    multi_func_on_one_col = df.groupby(['Region', 'Product_Category']).agg(
        sales_sum=('Sales', 'sum'),
        sales_max=('Sales', 'max'),
        sales_min=('Sales', 'min')
    )
    print("\n同一列应用多个函数:\n", multi_func_on_one_col)

    或者更简洁地,直接传递函数列表:

    multi_func_list = df.groupby(['Region', 'Product_Category'])['Sales'].agg(['sum', 'mean', 'max'])
    print("\n对单列直接应用函数列表:\n", multi_func_list)
  3. 使用自定义聚合函数: 如果Pandas内置的聚合函数无法满足你的需求,你可以定义自己的Python函数,并将其传递给agg()。这个函数会接收一个Series作为输入(即每个分组的某列数据),并返回一个单一值。

    # 定义一个自定义函数,例如计算销售额的标准差与平均值的比率
    def sales_variation_ratio(series):
        if series.mean() == 0:
            return 0
        return series.std() / series.mean()
    
    custom_agg_result = df.groupby(['Region', 'Product_Category']).agg(
        total_sales=('Sales', 'sum'),
        sales_ratio=('Sales', sales_variation_ratio) # 使用自定义函数
    )
    print("\n使用自定义聚合函数:\n", custom_agg_result)

    这种灵活性使得agg()成为处理复杂聚合任务的利器,它远不止是简单的求和或求平均。

多级分组聚合后如何进行数据透视或进一步的层次化分析?

处理完多级聚合的结果,我常会发现,原始的MultiIndex虽然强大,但视觉上并不总是那么直观。这时候,透视一下或者干脆扁平化,往往能让数据“说话”更清晰。聚合后的DataFrame通常会带有一个MultiIndex(多级索引),这在进行后续的层次化分析时非常有用。

  1. 扁平化索引:reset_index() 这是最常用的操作之一。它将MultiIndex转换为普通的列,使DataFrame回到一个更“平坦”的结构,方便导出到CSV或进行其他非层次化的操作。

    # 假设我们有之前的grouped_df_complex
    # grouped_df_complex = df.groupby(['Region', 'Product_Category']).agg(
    #     total_sales=('Sales', 'sum'),
    #     average_quantity=('Quantity', 'mean'),
    #     num_transactions=('Sales', 'count')
    # )
    
    flattened_df = grouped_df_complex.reset_index()
    print("\n扁平化后的DataFrame:\n", flattened_df)

    这会把RegionProduct_Category从索引变成普通的数据列。

  2. 数据透视:unstack() 当你的MultiIndex结果需要进行交叉表式的展示时,unstack()就显得非常有用。它能将MultiIndex的一个或多个级别“旋转”成列。

    # 将Product_Category从索引级别旋转到列
    pivoted_df = grouped_df_complex.unstack(level='Product_Category')
    print("\n透视后的DataFrame (unstack):\n", pivoted_df)
    
    # unstack后,列名会变成MultiIndex,可以进一步扁平化
    # pivoted_df.columns = ['_'.join(col).strip() for col in pivoted_df.columns.values]
    # print("\n透视并扁平化列名:\n", pivoted_df)

    unstack()操作会将Product_Category的每个唯一值变成新的列名,非常适合制作汇总表格。注意,unstack()后,列名本身也可能变成MultiIndex,这需要根据后续分析需求进行处理(例如,使用列表推导式来扁平化列名)。

  3. 层次化选择数据:loc与切片 即使不扁平化或透视,MultiIndex也允许你进行非常精细的层次化数据选择。

    # 选择某个特定区域的所有产品类别数据
    north_data = grouped_df_complex.loc['North']
    print("\n选择'North'区域的数据:\n", north_data)
    
    # 选择某个特定区域的特定产品类别数据
    north_electronics_data = grouped_df_complex.loc[('North', 'Electronics')]
    print("\n选择'North'区域'Electronics'类别的数据:\n", north_electronics_data)
    
    # 使用切片选择多个区域或产品类别(需要排序索引)
    # grouped_df_complex_sorted = grouped_df_complex.sort_index()
    # print("\n排序后的数据(切片需要):\n", grouped_df_complex_sorted)
    # slice_data = grouped_df_complex_sorted.loc[('North':'South', 'Books':'Electronics'), :]
    # print("\n切片选择数据:\n", slice_data)

    通过这些操作,你可以在保持数据层次结构的同时,灵活地展现和分析多级分组聚合的结果,为后续的数据可视化或更深层的统计建模打下基础。

今天关于《Pandas多级分组聚合方法详解》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

AWSLambda快速入门:5分钟生成AI函数AWSLambda快速入门:5分钟生成AI函数
上一篇
AWSLambda快速入门:5分钟生成AI函数
Java集合遍历:Iterator使用详解
下一篇
Java集合遍历:Iterator使用详解
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    164次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    159次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    166次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    167次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    178次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码