当前位置:首页 > 文章列表 > 文章 > python教程 > 数据标准化与归一化Python实现方法

数据标准化与归一化Python实现方法

2025-07-31 23:53:48 0浏览 收藏

各位小伙伴们,大家好呀!看看今天我又给各位带来了什么文章?本文标题《数据标准化与归一化怎么用Python实现?》,很明显是关于文章的文章哈哈哈,其中内容主要会涉及到等等,如果能帮到你,觉得很不错的话,欢迎各位多多点评和分享!

在Python中使用Scikit-learn实现数据标准化和归一化,1. 标准化通过StandardScaler将数据转换为均值为0、标准差为1的分布,适用于对异常值不敏感、分布不确定或基于梯度下降的模型;2. 归一化通过MinMaxScaler将数据缩放到[0,1]区间,适用于需明确范围或无显著异常值的场景;3. 非数值型数据需先进行独热编码或标签编码后再缩放;4. 缺失值需先填充或删除,确保数据完整后再进行标准化或归一化,整体流程为处理缺失值→编码分类特征→特征缩放。

怎样用Python实现数据标准化和归一化?

在Python中实现数据标准化和归一化,我们通常会用到Scikit-learn这个强大的库。它提供了非常方便的工具,比如StandardScaler用于标准化,以及MinMaxScaler用于归一化。这两种操作都是数据预处理的关键步骤,能帮助我们的机器学习模型更好地理解和学习数据。

怎样用Python实现数据标准化和归一化?

解决方案

数据标准化和归一化本质上都是对特征进行缩放,让它们落入一个特定的范围或分布中。这对于许多机器学习算法来说至关重要,尤其是那些基于距离计算或梯度下降的算法。

数据标准化 (Standardization) 标准化(也称Z-score标准化)是将数据转换成均值为0、标准差为1的分布。它的公式是:x_scaled = (x - mean) / std_dev。 在Python中,使用sklearn.preprocessing.StandardScaler

怎样用Python实现数据标准化和归一化?
import numpy as np
from sklearn.preprocessing import StandardScaler

# 假设我们有一些数据,比如特征X
data = np.array([[100], [150], [200], [120], [180]])

# 初始化StandardScaler
scaler = StandardScaler()

# 对数据进行拟合和转换
# fit_transform会先计算数据的均值和标准差,然后应用转换
scaled_data = scaler.fit_transform(data)

print("原始数据:\n", data)
print("标准化后的数据:\n", scaled_data)
# 验证均值和标准差
print("标准化后数据的均值:", scaled_data.mean())
print("标准化后数据的标准差:", scaled_data.std())

你会发现,标准化后的数据,其均值非常接近0,标准差非常接近1。

数据归一化 (Normalization) 归一化(也称Min-Max归一化)是将数据缩放到一个固定的范围,最常见的是[0, 1]或[-1, 1]。它的公式是:x_scaled = (x - min) / (max - min)。 在Python中,使用sklearn.preprocessing.MinMaxScaler

怎样用Python实现数据标准化和归一化?
import numpy as np
from sklearn.preprocessing import MinMaxScaler

# 假设还是同样的数据
data = np.array([[100], [150], [200], [120], [180]])

# 初始化MinMaxScaler,默认范围是[0, 1]
min_max_scaler = MinMaxScaler()

# 对数据进行拟合和转换
normalized_data = min_max_scaler.fit_transform(data)

print("原始数据:\n", data)
print("归一化后的数据:\n", normalized_data)
# 验证最小值和最大值
print("归一化后数据的最小值:", normalized_data.min())
print("归一化后数据的最大值:", normalized_data.max())

这里,归一化后的数据会被压缩到0到1之间。选择哪种方法,往往取决于你使用的具体算法以及数据的特性。

为什么数据需要标准化或归一化?

这个问题其实挺核心的。我个人在处理数据的时候,几乎每次都会考虑这一步。想象一下,如果你的数据集里,一个特征是“收入”(可能几万到几十万),另一个是“年龄”(几十岁),这两个特征的数值范围差异巨大。

很多机器学习算法,尤其是那些依赖于距离计算的(比如K近邻KNN、支持向量机SVM),或者通过梯度下降优化的(比如线性回归、逻辑回归、神经网络),会因为特征的量纲差异而表现不佳。收入这个特征的数值范围太大,它在距离计算时会占据主导地位,导致年龄这样的特征几乎被“忽略”掉。这显然不是我们希望看到的,因为每个特征可能都蕴含着有价值的信息。

再比如,神经网络的梯度下降过程,如果特征值范围差异大,梯度可能会在某些维度上非常大,导致训练不稳定,甚至无法收敛。标准化或归一化把所有特征都拉到一个相似的尺度上,避免了量纲差异带来的偏倚,让模型能够公平地对待每个特征,从而提升模型的训练效率、稳定性和最终的预测性能。这就像是给所有参赛选手都设定了相同的起跑线,比赛才能更公平。

标准化和归一化有什么区别,我该如何选择?

这确实是初学者常问的问题,也是我刚开始接触数据预处理时纠结的地方。简单来说,它们处理数据的方式不同,适用场景也因此有了区分。

标准化 (Standardization): 它把数据转换成均值为0,标准差为1的分布。这个过程不会改变数据的分布形态,只是平移和缩放。

  • 优点:对异常值不那么敏感。因为它是基于均值和标准差来缩放的,即使有几个极端值,它们对整体均值和标准差的影响相对有限,不会像归一化那样把异常值也紧紧地压缩到固定范围的边缘。
  • 适用场景
    • 当你对数据的分布没有明确假设时(比如不确定数据是否服从正态分布)。
    • 算法对特征的方差敏感,比如主成分分析(PCA)。
    • 神经网络,因为它可以帮助模型更快地收敛。
    • 算法假设数据是正态分布的,即使数据不是严格的正态分布,标准化也能使其更接近这个假设。

归一化 (Normalization): 它把数据缩放到一个固定的区间,通常是[0, 1]或[-1, 1]。

  • 优点:简单直观,能将所有数据点映射到预设的区间内。
  • 缺点:对异常值非常敏感。如果数据中有一个极大的异常值,它会把所有其他正常数据点都压缩在一个非常小的子区间内,导致大部分数据点的值非常接近,从而丢失了它们之间的相对差异。
  • 适用场景
    • 当你需要将数据映射到一个明确的固定范围时,比如图像处理中像素值通常在[0, 255]或[0, 1]。
    • 某些算法明确要求输入特征在特定范围内,比如一些神经网络的激活函数(如Sigmoid函数,其输出范围是[0, 1])。
    • 当数据分布已知且没有显著异常值时。

我的选择策略: 在实际项目中,我通常会先考虑标准化。因为它对异常值的鲁棒性更好,而且大多数情况下,它对各种机器学习算法都表现良好。如果模型表现不佳,或者我明确知道某个算法需要特定范围的输入(例如某些深度学习模型的特定层),我才会尝试归一化。有时候,甚至需要尝试两种方法,通过交叉验证来评估哪种对当前任务效果最好。没有一劳永逸的答案,数据科学很多时候就是这样,需要一点点实验和调整。

处理非数值型数据和缺失值对标准化/归一化的影响?

这是数据预处理中一个非常现实且关键的问题,因为实际数据往往不是那么“干净”。如果直接把含有非数值型数据或缺失值的特征丢给StandardScalerMinMaxScaler,Python会报错。这些缩放器只能处理数值型数据。

非数值型数据 (Categorical Data): 像“颜色”(红、绿、蓝)或“城市”(北京、上海)这类非数值型数据,是不能直接进行标准化或归一化的。它们代表的是类别,而不是数值大小。

  • 处理方式:在进行任何缩放操作之前,你必须将这些类别数据转换为数值形式。最常见的方法是:
    • 独热编码 (One-Hot Encoding):将每个类别转换为一个独立的二进制特征(0或1)。比如“颜色”会变成“颜色_红”、“颜色_绿”、“颜色_蓝”三个新特征。这是处理无序分类特征的常用方法。
    • 标签编码 (Label Encoding):将每个类别映射到一个整数。比如“红”->0,“绿”->1,“蓝”->2。这种方法适用于有序分类特征,或者当算法本身能够处理序数关系时。 转换完成后,这些新的数值特征(特别是独热编码后的)就可以与其他数值特征一起进行标准化或归一化了。

缺失值 (Missing Values): 数据集中经常会有缺失值(比如NaN,Not a Number)。缩放器无法处理这些缺失值。

  • 处理方式:在进行标准化或归一化之前,必须先处理缺失值。常见的策略有:
    • 删除 (Deletion):如果缺失值数量很少,或者你认为缺失的这些行或列对整体分析影响不大,可以直接删除包含缺失值的行或列。但这可能导致信息丢失。
    • 填充 (Imputation):这是更常用的方法。用某个统计量(如均值、中位数、众数)或者通过更复杂的模型(如K近邻填充、回归填充)来填补缺失值。
      • 均值/中位数填充:对于数值型特征,用该特征的均值或中位数来填充缺失值。中位数对异常值更鲁棒。
      • 众数填充:对于分类特征,可以用众数来填充。
      • 固定值填充:用一个特定的值(比如0或-1)来填充,但这需要谨慎,确保这个值不会引入新的偏差。
      • 模型预测填充:使用机器学习模型来预测缺失值,这通常更复杂但可能更准确。 处理完缺失值后,确保所有特征都是数值类型,并且没有NaN,然后才能安全地进行标准化或归一化。

所以,一个完整的预处理流程通常是:处理缺失值 -> 编码非数值型数据 -> 对数值型特征进行标准化/归一化。这个顺序很重要,不能颠倒。

今天带大家了解了的相关知识,希望对你有所帮助;关于文章的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

硬盘分区表损坏恢复方法详解硬盘分区表损坏恢复方法详解
上一篇
硬盘分区表损坏恢复方法详解
Golang零GC日志处理:环形缓冲与直接IO技术
下一篇
Golang零GC日志处理:环形缓冲与直接IO技术
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3182次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3393次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3425次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4529次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3802次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码