当前位置:首页 > 文章列表 > 文章 > python教程 > Pandas数据标准化方法与实战技巧

Pandas数据标准化方法与实战技巧

2025-07-30 18:18:31 0浏览 收藏

本文深入探讨了在Pandas DataFrame中进行分组数据标准化时遇到的问题与解决方案,重点解决如何对特定分组内的数值列进行标准化,以提升数据预处理的效率和准确性。文章首先分析了直接应用`StandardScaler`于`DataFrameGroupBy`对象失败的原因,并针对性地提出了两种有效的标准化方法:一是通过迭代处理每个分组,二是通过高效的`groupby().apply()`函数实现分组内标准化。后者通过自定义函数对每个分组进行独立的标准化处理,并保留原始数据的索引和列顺序,确保数据结构的完整性。此外,文章还清晰区分了数值标准化与分类数据编码(如One-Hot Encoding)的应用场景,强调了在数据预处理过程中选择正确技术的必要性,为读者提供了实用的Pandas数据处理技巧和最佳实践。

Pandas DataFrame分组内数值数据标准化:策略与实践

本文旨在解决在Pandas DataFrame中对特定分组内的数值列进行标准化时遇到的挑战。我们将探讨直接对DataFrameGroupBy对象应用StandardScaler失败的原因,并提供两种有效的解决方案:一种是迭代处理每个分组,另一种是利用groupby().apply()函数实现高效的分组内标准化。同时,文章还将区分数值标准化与分类数据编码的不同应用场景。

引言:分组内数值标准化的问题

在数据预处理阶段,我们经常需要对数值特征进行标准化,以消除量纲差异,确保模型训练的稳定性和性能。当数据包含分类特征,并且我们希望根据这些分类特征进行分组,然后对每个分组内的数值数据独立进行标准化时,问题便会变得复杂。直接将sklearn.preprocessing.StandardScaler应用于Pandas的DataFrameGroupBy对象,通常会导致错误,因为StandardScaler期望处理纯数值型数据,而DataFrameGroupBy对象本身是一个抽象的迭代器,且其内部可能仍包含非数值列。

考虑以下示例DataFrame:

import pandas as pd
from sklearn.preprocessing import StandardScaler

df = pd.DataFrame({
    "cost": [30, 15, 100, 65, 75, 55, 29, 45],
    "sales": [80, 88, 70, 80, 999, 70, 8, 95],
    "da_value": ["low", "low", "high", "medium", "high", "medium", "low", "medium"],
    "names": ["Jo", "Andrew", "AI", "Michael", "Nikola", "Jim", "Bojan", "Vurce"]
})

print(df)

输出:

   cost  sales da_value    names
0    30     80      low       Jo
1    15     88      low   Andrew
2   100     70     high       AI
3    65     80   medium  Michael
4    75    999     high   Nikola
5    55     70   medium      Jim
6    29      8      low    Bojan
7    45     95   medium    Vurce

如果尝试直接对df.groupby("da_value")的结果应用StandardScaler.fit_transform(),例如:

# 错误尝试
# df_dast = df.groupby("da_value")
# scaler = StandardScaler()
# df_dast_scaled = scaler.fit_transform(df_dast)

将会遇到类似ValueError: could not convert string to float: 'high'的错误。这表明StandardScaler尝试处理了非数值列(如da_value),或者它无法直接操作DataFrameGroupBy对象。此外,即使移除非数值列,DataFrameGroupBy对象本身也无法直接作为fit_transform的输入,因为它不是一个单一的二维数组。

解决方案一:迭代处理每个分组

一种直观的方法是遍历DataFrameGroupBy对象生成的每个分组(它们是独立的DataFrame),对每个分组内的数值列进行标准化,然后将结果重新组合。

# 识别数值列和非数值列
numerical_cols = df.select_dtypes(include=['number']).columns.tolist()
non_numerical_cols = df.select_dtypes(exclude=['number']).columns.tolist()

scaled_dfs = []
for name, group in df.groupby("da_value"):
    # 创建StandardScaler实例
    scaler = StandardScaler()

    # 仅对分组内的数值列进行标准化
    scaled_data = scaler.fit_transform(group[numerical_cols])

    # 将标准化后的数据转换回DataFrame,并保留原始索引
    scaled_group_df = pd.DataFrame(scaled_data, columns=numerical_cols, index=group.index)

    # 将非数值列与标准化后的数值列合并
    # 确保合并时保留分组列本身,如果需要的话
    # 这里我们直接将原始非数值列与标准化后的数值列拼接
    combined_group_df = pd.concat([group[non_numerical_cols], scaled_group_df], axis=1)

    scaled_dfs.append(combined_group_df)

# 将所有处理过的分组DataFrame拼接回一个完整的DataFrame
df_standardized_iterative = pd.concat(scaled_dfs).sort_index()

print("\n--- 迭代处理后的DataFrame ---")
print(df_standardized_iterative)

这种方法清晰地展示了每个分组是如何被独立处理的,但对于大型数据集而言,可能效率不高。

解决方案二:利用 groupby().apply() 实现高效分组内标准化(推荐)

Pandas的groupby().apply()方法提供了一种更简洁、更高效的方式来对每个分组应用自定义函数。我们可以定义一个函数,该函数接收一个分组DataFrame作为输入,执行标准化操作,并返回处理后的分组DataFrame。

def standardize_numerical_columns_in_group(group_df):
    """
    对传入的DataFrame(一个分组)中的数值列进行标准化。
    """
    scaler = StandardScaler()

    # 识别当前分组中的数值列
    current_numerical_cols = group_df.select_dtypes(include=['number']).columns.tolist()
    # 识别当前分组中的非数值列
    current_non_numerical_cols = group_df.select_dtypes(exclude=['number']).columns.tolist()

    if not current_numerical_cols:
        # 如果没有数值列,直接返回原始分组
        return group_df

    # 对数值列进行fit_transform
    scaled_numerical_data = scaler.fit_transform(group_df[current_numerical_cols])

    # 将标准化后的数据转换为DataFrame,并保持原始索引
    scaled_df_part = pd.DataFrame(scaled_numerical_data, 
                                  columns=current_numerical_cols, 
                                  index=group_df.index)

    # 将非数值列与标准化后的数值列合并
    # 确保原始列的顺序和类型得到保留
    # 使用pd.concat并指定轴为1,确保列的正确拼接
    # 保持原始DataFrame的列顺序,将非数值列放在前面

    # 首先获取原始DataFrame的列顺序
    original_cols_order = df.columns.tolist()

    # 创建一个包含非数值列和标准化数值列的新DataFrame
    recombined_df = pd.concat([group_df[current_non_numerical_cols], scaled_df_part], axis=1)

    # 按照原始DataFrame的列顺序重新排列列
    return recombined_df[original_cols_order]

# 应用groupby().apply()
# group_keys=False 避免将分组键作为新的索引层级
df_standardized_apply = df.groupby('da_value', group_keys=False).apply(standardize_numerical_columns_in_group)

print("\n--- 使用groupby().apply() 标准化后的DataFrame ---")
print(df_standardized_apply)

代码解释:

  • standardize_numerical_columns_in_group(group_df): 这个函数接收一个DataFrame(代表一个分组)。
  • group_df.select_dtypes(include=['number']): 动态识别当前分组中的所有数值列。
  • scaler.fit_transform(): 对每个分组独立进行fit_transform,这意味着每个分组都有自己的均值和标准差。
  • pd.DataFrame(scaled_numerical_data, columns=current_numerical_cols, index=group_df.index): 将标准化后的NumPy数组转换回DataFrame,并确保保留原始的索引,这对于后续的拼接至关重要。
  • pd.concat([...], axis=1): 将标准化后的数值列与原始的非数值列(如da_value和names)重新拼接起来。
  • group_keys=False: 这是一个重要的参数,它阻止groupby().apply()将分组键(这里是da_value)作为结果DataFrame的一个新的索引层级,使输出更扁平化。
  • recombined_df[original_cols_order]: 确保最终输出的列顺序与原始DataFrame保持一致,提高可读性。

这种方法不仅代码更简洁,而且在性能上也通常优于手动迭代,因为它在C语言级别进行了优化。

区分:分类数据编码(One-Hot Encoding)

原始问题中提及了使用pd.get_dummies进行One-Hot Encoding。需要明确的是,One-Hot Encoding (pd.get_dummies) 和数值特征标准化 (StandardScaler) 是两种不同的数据预处理技术,解决不同的问题:

  • 数值特征标准化:目的是消除数值特征的量纲差异,使其具有相似的尺度,这对于许多机器学习算法(如梯度下降、SVM、K-Means等)至关重要。它作用于已有的数值列
  • 分类数据编码:目的是将非数值的分类特征转换为数值表示,以便机器学习模型能够处理它们。它作用于分类列,将其转换为新的数值列(通常是二进制的0/1列)。

例如,对da_value列进行One-Hot Encoding:

df_encoded = pd.get_dummies(df, columns=['da_value'], prefix='da_value')
print("\n--- One-Hot Encoding 后的DataFrame ---")
print(df_encoded)

输出:

   cost  sales    names  da_value_high  da_value_low  da_value_medium
0    30     80       Jo              0             1                0
1    15     88   Andrew              0             1                0
2   100     70       AI              1             0                0
3    65     80  Michael              0             0                1
4    75    999   Nikola              1             0                0
5    55     70      Jim              0             0                1
6    29      8    Bojan              0             1                0
7    45     95    Vurce              0             0                1

可以看到,da_value列被转换成了三列新的数值列。如果在此基础上再进行标准化,StandardScaler会处理所有的数值列,包括原始的cost、sales以及新生成的da_value_high、da_value_low、da_value_medium。这与我们最初“在分组内标准化现有数值列”的目标不同。

因此,在进行数据预处理时,理解每种技术的目的至关重要,以避免混淆和错误应用。

注意事项与总结

  1. 选择正确的列:在应用任何转换之前,务必明确哪些列是数值型需要标准化,哪些是分类型需要编码或保留。
  2. 保留非数值列:在分组内标准化时,确保非数值(如分组键、标识符)列能够被正确地保留并重新合并到结果DataFrame中。
  3. 索引的重要性:在处理分组数据并重新组合时,保持原始索引的完整性至关重要,以确保数据能够正确地对齐。
  4. group_keys=False:在apply操作中,使用此参数可以避免生成多层索引,使结果DataFrame更易于处理。
  5. 性能考量:对于非常大的数据集,apply通常是比手动迭代更优的选择。然而,如果自定义函数内部操作非常复杂,也可能影响性能,此时需要进行性能分析。
  6. 选择合适的缩放器:除了StandardScaler(Z-score标准化),sklearn.preprocessing还提供了MinMaxScaler(Min-Max缩放)、RobustScaler(对异常值更鲁棒)等,应根据数据分布和模型需求选择最合适的缩放器。

通过本文的讲解,您应该能够清晰地理解如何在Pandas DataFrame中实现高效且正确的分组内数值数据标准化,并区分其与分类数据编码的不同应用场景。掌握这些技术将大大提升您在数据预处理阶段的效率和准确性。

今天关于《Pandas数据标准化方法与实战技巧》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!

MacOS多端口PHP配置指南MacOS多端口PHP配置指南
上一篇
MacOS多端口PHP配置指南
Premiere+DeepSeek:自动生成转场字幕方案
下一篇
Premiere+DeepSeek:自动生成转场字幕方案
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    514次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    164次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    131次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    171次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    128次使用
  • 迅捷AIPPT:AI智能PPT生成器,高效制作专业演示文稿
    迅捷AIPPT
    迅捷AIPPT是一款高效AI智能PPT生成软件,一键智能生成精美演示文稿。内置海量专业模板、多样风格,支持自定义大纲,助您轻松制作高质量PPT,大幅节省时间。
    158次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码