当前位置:首页 > 文章列表 > 文章 > python教程 > Pythongroupby高级技巧全解析

Pythongroupby高级技巧全解析

2025-07-18 15:11:36 0浏览 收藏

想提升Python数据分析效率?Pandas 库的 `groupby()` 方法是你的不二之选!它通过“Split-Apply-Combine”机制,将数据按指定列拆分成组,然后对每组应用聚合函数(如 `sum()`, `mean()`, `count()` 等)进行计算,最后合并结果。本文将深入解析 `groupby()` 的高级用法,包括单列/多列分组、多种聚合函数组合、自定义聚合函数以及重置索引等操作。此外,还将探讨 `agg()` 在多层聚合分析中的应用,以及 `apply()` 和 `transform()` 在执行复杂分组逻辑时的强大功能,如广播结果回原始数据结构、填充缺失值和计算组内排名。掌握这些技巧,让你轻松应对各种数据分析挑战!

Python中实现数据分组统计的核心方法是Pandas库的groupby(),其核心机制为“Split-Apply-Combine”。1. 首先使用groupby()按一个或多个列分组;2. 然后对每组应用聚合函数(如sum(), mean(), count()等)进行计算;3. 最后将结果合并成一个新的DataFrame或Series。通过groupby()可以实现单列分组、多列分组、多种聚合函数组合、自定义聚合函数、重置索引等操作,还能结合agg()实现多层聚合分析,配合apply()和transform()可执行更复杂的分组逻辑,如广播结果回原始数据结构、填充缺失值、计算组内排名等。掌握groupby及其相关方法能显著提升数据分析效率与灵活性。

Python怎样实现数据分组统计?groupby高级用法解析

Python中实现数据分组统计,Pandas库的groupby方法无疑是核心利器。它能让你根据一个或多个列的值,将数据高效地拆分成若干组,然后对每组独立进行聚合计算,比如求和、计数、平均值等等。这就像是把一大堆散乱的数据,按照某种内在的逻辑自动分类整理好,方便我们从不同维度去洞察数据背后的规律。

Python怎样实现数据分组统计?groupby高级用法解析

解决方案

要实现数据分组统计,最直接也是最常用的方法就是利用Pandas DataFrame的groupby()方法。它通常与一个或多个聚合函数(如sum(), mean(), count(), min(), max(), std(), var(), first(), last(), nth()等)结合使用。

Python怎样实现数据分组统计?groupby高级用法解析

首先,你需要一个DataFrame:

import pandas as pd
import numpy as np

# 模拟一些销售数据
data = {
    '产品': ['A', 'B', 'A', 'C', 'B', 'A', 'C', 'B', 'A'],
    '区域': ['华东', '华北', '华东', '华南', '华北', '华中', '华南', '华中', '华东'],
    '销售额': [100, 150, 120, 80, 130, 90, 110, 160, 105],
    '销量': [10, 15, 12, 8, 13, 9, 11, 16, 10]
}
df = pd.DataFrame(data)
print("原始数据:")
print(df)
print("-" * 30)

# 1. 单列分组并求和
# 统计每个产品的总销售额
product_sales = df.groupby('产品')['销售额'].sum()
print("按产品统计总销售额:")
print(product_sales)
print("-" * 30)

# 2. 多列分组并计算平均值
# 统计每个区域、每个产品的平均销售额和平均销量
region_product_avg = df.groupby(['区域', '产品'])[['销售额', '销量']].mean()
print("按区域和产品统计平均销售额及销量:")
print(region_product_avg)
print("-" * 30)

# 3. 使用agg()进行多种聚合操作
# 统计每个区域的销售额:总和、平均值、最大值
region_agg_sales = df.groupby('区域')['销售额'].agg(['sum', 'mean', 'max'])
print("按区域统计销售额的多种指标:")
print(region_agg_sales)
print("-" * 30)

# 4. 使用agg()对不同列应用不同聚合函数
# 统计每个产品:销售额的总和,销量的平均值
product_custom_agg = df.groupby('产品').agg(
    总销售额=('销售额', 'sum'),
    平均销量=('销量', 'mean')
)
print("按产品统计销售额总和与销量平均值:")
print(product_custom_agg)
print("-" * 30)

# 5. 分组后重置索引
# 如果想把分组键也作为普通列而不是索引,可以使用reset_index()
reset_index_example = df.groupby('产品')['销售额'].sum().reset_index()
print("分组后重置索引:")
print(reset_index_example)

groupby()方法的强大之处在于它的灵活性。你可以根据业务需求,选择任意列作为分组键,然后对目标列应用各种聚合函数。我第一次接触groupby的时候,觉得它有点像Excel里的数据透视表,但又灵活得多,尤其是在处理大数据集时,那效率简直是飞跃。

Python怎样实现数据分组统计?groupby高级用法解析

理解Pandas Groupby的“三板斧”:Split-Apply-Combine

说实话,很多人用groupby只是停留在表面,知道怎么写,但不一定理解它背后的工作机制。Pandas的groupby操作,核心思想其实是“Split-Apply-Combine”(拆分-应用-合并)这个范式。理解这个,能帮你更好地优化代码,解决更复杂的问题。

  1. Split(拆分): 这是groupby的第一步。Pandas会根据你指定的分组键(一个或多个列),将原始DataFrame逻辑上拆分成多个子DataFrame。每个子DataFrame都包含一个唯一分组键对应的所有行。这个过程是内存高效的,它通常不会真的创建很多小的DataFrame副本,而是内部维护一个指向原始数据视图的索引映射。
  2. Apply(应用): 拆分完成后,Pandas会对每个独立的子DataFrame应用一个函数。这个函数可以是内置的聚合函数(如sum(), mean()),也可以是你自定义的函数。这一步是计算的核心,比如你要求每组的平均值,就是在这里对每个子组的数据进行平均值计算。
  3. Combine(合并): 最后一步是将所有子DataFrame上应用函数得到的结果,合并成一个最终的DataFrame或Series。这个合并过程会根据分组键重新构建索引,并把聚合结果呈现出来。

掌握了“Split-Apply-Combine”这个概念,你就能更好地预判groupby的行为,也能在遇到性能瓶颈时,知道从哪个环节去优化。比如,如果你的apply步骤非常耗时,那可能需要考虑用矢量化操作替代,或者寻找Pandas内置的更优解。有时候,我们可能不自觉地写出一些看似合理但效率低下的groupby操作,比如对每一组都用apply去跑一个复杂的自定义函数,这时候就得停下来想想,有没有更Pandasic的办法。

高级聚合与多层索引:解锁复杂分析场景

在实际工作中,数据分析的需求往往比简单求和复杂得多。groupby结合agg()方法,可以轻松应对多列分组和多层聚合的场景,甚至还能自定义聚合函数名,让结果更清晰。

当我们需要同时对多个列进行分组,或者对同一列进行多种聚合操作时,agg()方法就显得尤为重要了。

# 模拟更复杂的销售数据,加入日期
df_complex = pd.DataFrame({
    '日期': pd.to_datetime(['2023-01-01', '2023-01-01', '2023-01-02', '2023-01-02', '2023-01-03', '2023-01-03']),
    '产品': ['A', 'B', 'A', 'C', 'B', 'A'],
    '区域': ['华东', '华北', '华东', '华南', '华北', '华东'],
    '销售额': [100, 150, 120, 80, 130, 90],
    '成本': [50, 70, 60, 40, 65, 45]
})
print("\n复杂原始数据:")
print(df_complex)
print("-" * 30)

# 1. 多列分组,对不同列应用不同聚合函数,并自定义输出列名
# 统计每天每个区域:总销售额,平均成本,以及销售额的最高值和最低值
daily_region_stats = df_complex.groupby(['日期', '区域']).agg(
    总销售额=('销售额', 'sum'),
    平均成本=('成本', 'mean'),
    销售额最大值=('销售额', 'max'),
    销售额最小值=('销售额', 'min')
)
print("每天每区域的销售统计:")
print(daily_region_stats)
print("-" * 30)

# 2. 对同一列应用多个聚合函数,并使用多层列索引
# 统计每个产品的销售额:总和、平均值、标准差
product_multi_agg = df_complex.groupby('产品')['销售额'].agg(['sum', 'mean', 'std'])
print("每个产品的销售额多指标统计:")
print(product_multi_agg)
print("-" * 30)

# 3. 如果需要更复杂的自定义聚合,可以传入lambda函数
# 统计每个区域的销售额,并计算一个自定义的“销售额波动范围”(最大值-最小值)
region_custom_range = df_complex.groupby('区域')['销售额'].agg(
    总销售额='sum',
    销售额波动范围=lambda x: x.max() - x.min()
)
print("每个区域的销售额波动范围:")
print(region_custom_range)

通过agg(),我们可以构建出非常精细的聚合报表。我记得有次做用户行为分析,需要同时按用户ID和行为类型来统计不同时段的操作次数,groupby(['user_id', 'action_type']).count()就完美解决了,那种感觉就像是找到了数据里的“密码”。而当需要更深入的分析,比如计算每个用户每次会话的平均时长,或者特定行为的转化率时,agg配合自定义函数就显得尤为灵活了。

apply()transform():突破简单聚合的界限

groupby的强大不仅仅体现在简单的聚合上,它还提供了apply()transform()这两个高级方法,它们能让你在分组数据上执行更复杂、更灵活的操作,甚至可以将结果“广播”回原始DataFrame的形状。

  1. apply():自由度最高的“瑞士军刀”apply()方法会将每个分组作为一个独立的DataFrame(或Series)传递给你定义的函数。这意味着你可以在每个组内执行几乎任何Pandas操作,包括排序、筛选、合并、复杂的计算等等。它的返回值可以是Series、DataFrame,甚至是标量。

    # 查找每个区域销售额最高的两条记录
    def top_n_sales(group, n=2):
        return group.sort_values(by='销售额', ascending=False).head(n)
    
    top_sales_per_region = df_complex.groupby('区域').apply(top_n_sales)
    print("\n每个区域销售额最高的两条记录:")
    print(top_sales_per_region)
    print("-" * 30)

    apply也有它的“陷阱”,比如性能问题,如果你的函数能被矢量化操作替代,那最好不要用apply。它在处理大数据量时可能会比较慢,因为它需要迭代每个组并调用Python函数。

  2. transform():结果形状不变的“广播器”transform()方法也对每个分组应用一个函数,但它的关键特性是:它返回的结果必须与原始分组的形状(行数)相同,并且会自动将结果对齐回原始DataFrame的索引。这使得它非常适合用于在组内进行数据标准化、填充缺失值、计算组内排名等操作,而不会改变原始DataFrame的结构。

    # 计算每个产品的销售额占该产品总销售额的比例
    df_complex['销售额占比'] = df_complex.groupby('产品')['销售额'].transform(lambda x: x / x.sum())
    print("添加销售额占比列:")
    print(df_complex)
    print("-" * 30)
    
    # 填充每个区域的缺失销售额为该区域的平均销售额(假设有缺失值)
    df_with_nan = df_complex.copy()
    df_with_nan.loc[0, '销售额'] = np.nan
    df_with_nan.loc[4, '销售额'] = np.nan
    
    # 使用transform填充缺失值
    df_with_nan['销售额_填充'] = df_with_nan.groupby('区域')['销售额'].transform(lambda x: x.fillna(x.mean()))
    print("\n填充缺失销售额后的数据:")
    print(df_with_nan)

    transform则需要特别注意它的返回结果必须和输入组的行数一致,否则会报错。它的优点是性能通常比apply好,因为它更倾向于使用Pandas的内部优化。

掌握applytransform,意味着你不再局限于简单的聚合,可以进行更细粒度的组内操作,并将结果无缝集成回原始数据结构中。它们是处理复杂分组逻辑,尤其是需要返回与原始数据等长结果时的强大工具。

以上就是《Pythongroupby高级技巧全解析》的详细内容,更多关于的资料请关注golang学习网公众号!

Golang路径操作技巧与跨平台解决方案Golang路径操作技巧与跨平台解决方案
上一篇
Golang路径操作技巧与跨平台解决方案
科大讯飞语音识别接入指南
下一篇
科大讯飞语音识别接入指南
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • AI代码助手:Amazon CodeWhisperer,高效安全的代码生成工具
    CodeWhisperer
    Amazon CodeWhisperer,一款AI代码生成工具,助您高效编写代码。支持多种语言和IDE,提供智能代码建议、安全扫描,加速开发流程。
    5次使用
  • 畅图AI:AI原生智能图表工具 | 零门槛生成与高效团队协作
    畅图AI
    探索畅图AI:领先的AI原生图表工具,告别绘图门槛。AI智能生成思维导图、流程图等多种图表,支持多模态解析、智能转换与高效团队协作。免费试用,提升效率!
    31次使用
  • TextIn智能文字识别:高效文档处理,助力企业数字化转型
    TextIn智能文字识别平台
    TextIn智能文字识别平台,提供OCR、文档解析及NLP技术,实现文档采集、分类、信息抽取及智能审核全流程自动化。降低90%人工审核成本,提升企业效率。
    39次使用
  • SEO  简篇 AI 排版:3 秒生成精美文章,告别排版烦恼
    简篇AI排版
    SEO 简篇 AI 排版,一款强大的 AI 图文排版工具,3 秒生成专业文章。智能排版、AI 对话优化,支持工作汇报、家校通知等数百场景。会员畅享海量素材、专属客服,多格式导出,一键分享。
    35次使用
  • SEO  小墨鹰 AI 快排:公众号图文排版神器,30 秒搞定精美排版
    小墨鹰AI快排
    SEO 小墨鹰 AI 快排,新媒体运营必备!30 秒自动完成公众号图文排版,更有 AI 写作助手、图片去水印等功能。海量素材模板,一键秒刷,提升运营效率!
    34次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码