当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > 在 Python中处理大型机器学习数据集的简单方法

在 Python中处理大型机器学习数据集的简单方法

来源:51CTO.COM 2023-04-29 16:37:38 0浏览 收藏

哈喽!今天心血来潮给大家带来了《在 Python中处理大型机器学习数据集的简单方法》,想必大家应该对科技周边都不陌生吧,那么阅读本文就都不会很困难,以下内容主要涉及到,若是你正在学习科技周边,千万别错过这篇文章~希望能帮助到你!

本文的目标受众:

  1. 想要对大量数据集执行 Pandas/NumPy 操作的人。
  2. 希望使用Python在大数据上执行机器学习任务的人。

在 Python中处理大型机器学习数据集的简单方法

本文将使用 .csv 格式的文件来演示 python 的各种操作,其他格式如数组、文本文件等也是如此。

为什么我们不能将 pandas 用于大型机器学习数据集呢?

我们知道 Pandas 使用计算机内存 (RAM) 来加载您的机器学习数据集,但是,如果您的计算机有8 GB 的内存 (RAM),那么为什么 pandas 仍然无法加载 2 GB 的数据集呢?原因是使用 Pandas 加载 2 GB 文件不仅需要 2 GB RAM,还需要更多内存,因为总内存需求取决于数据集的大小以及您将在该数据集上执行的操作。

以下是加载到计算机内存中的不同大小的数据集的快速比较:

在 Python中处理大型机器学习数据集的简单方法

此外,Pandas只使用操作系统的一个内核,这使得处理速度很慢。换句话说,我们可以说pandas不支持并行(将一个问题分解成更小的任务)。

假设电脑有 4 个内核,下图是加载 CSV 文件的时候 pandas 使用的内核数:

在 Python中处理大型机器学习数据集的简单方法

普遍不使用 pandas 处理大型机器学习数据集的主要原因有以下两点,一是计算机内存使用量,二是缺乏并行性。在 NumPy 和 Scikit-learn中,对于大数据集也面临同样的问题。

为了解决这两个问题,可以使用名为Dask的python库,它能够使我们在大型数据集上执行pandas、NumPy和ML等各种操作。

Dask是如何工作的?

Dask是在分区中加载你的数据集,而pandas通常是将整个机器学习数据集作为一个dataframe。在Dask中,数据集的每个分区都被认为是一个pandas dataframe。

在 Python中处理大型机器学习数据集的简单方法

Dask 一次加载一个分区,因此您不必担心出现内存分配错误问题。

以下是使用 dask 在计算机内存中加载不同大小的机器学习数据集的比较:

在 Python中处理大型机器学习数据集的简单方法

Dask 解决了并行性问题,因为它将数据拆分为多个分区,每个分区使用一个单独的内核,这使得数据集上的计算更快。

假设电脑有 4 个内核,以下是 dask 在加载 5 GB csv 文件时的方式:

在 Python中处理大型机器学习数据集的简单方法

要使用 dask 库,您可以使用以下命令进行安装:

pip install dask

Dask 有几个模块,如dask.array、dask.dataframe 和 dask.distributed,只有在您分别安装了相应的库(如 NumPy、pandas 和 Tornado)后才能工作。

如何使用 dask 处理大型 CSV 文件?

dask.dataframe 用于处理大型 csv 文件,首先我尝试使用 pandas 导入大小为 8 GB 的数据集。

import pandas as pd
df = pd.read_csv(“data.csv”)

它在我的 16 GB 内存笔记本电脑中引发了内存分配错误。

现在,尝试使用 dask.dataframe 导入相同的 8 GB 数据

在 Python中处理大型机器学习数据集的简单方法

dask 只用了一秒钟就将整个 8 GB 文件加载到 ddf 变量中。

让我们看看 ddf 变量的输出。

在 Python中处理大型机器学习数据集的简单方法

如您所见,执行时间为 0.5 秒,这里显示已划分为 119 个分区。

您还可以使用以下方法检查数据帧的分区数:

在 Python中处理大型机器学习数据集的简单方法

默认情况下,dask 将我的 8 GB CSV 文件加载到 119 个分区(每个分区大小为 64MB),这是根据可用的物理内存和电脑的内核数来完成的。

还可以在加载 CSV 文件时使用 blocksize 参数指定我自己的分区数。

在 Python中处理大型机器学习数据集的简单方法

现在指定了一个字符串值为 400MB 的 blocksize 参数,这使得每个分区大小为 400 MB,让我们看看有多少个分区

在 Python中处理大型机器学习数据集的简单方法

关键点:使用 Dask DataFrames 时,一个好的经验法则是将分区保持在 100MB 以下。

使用以下方法可调用dataframe的特定分区:

在 Python中处理大型机器学习数据集的简单方法

也可通过使用负索引来调用最后一个分区,就像我们在调用列表的最后一个元素时所做的那样。

让我们看看数据集的形状:

在 Python中处理大型机器学习数据集的简单方法

您可以使用 len() 检查数据集的行数:

在 Python中处理大型机器学习数据集的简单方法

Dask 已经包含了示例数据集。我将使用时间序列数据向您展示 dask 如何对数据集执行数学运算。

在 Python中处理大型机器学习数据集的简单方法

导入dask.datasets后,ddf_20y 加载了从 2000 年 1 月 1 日到 2021 年 12 月 31 日的时间序列数据。

让我们看看我们的时间序列数据的分区数。

在 Python中处理大型机器学习数据集的简单方法

20 年的时间序列数据分布在 8035 个分区中。

在 pandas 中,我们使用 head 打印数据集的前几行,dask 也是这样。

在 Python中处理大型机器学习数据集的简单方法

让我们计算一下 id 列的平均值。

在 Python中处理大型机器学习数据集的简单方法

dask不会打印dataframe的总行数,因为它使用惰性计算(直到需要时才显示输出)。为了显示输出,我们可以使用compute方法。

在 Python中处理大型机器学习数据集的简单方法

假设我想对数据集的每一列进行归一化(将值转换为0到1之间),Python代码如下:

在 Python中处理大型机器学习数据集的简单方法

循环遍历列,找到每列的最小值和最大值,并使用简单的数学公式对这些列进行归一化。

关键点:在我们的归一化示例中,不要认为会发生实际的数值计算,它只是惰性求值(在需要之前永远不会向您显示输出)。

为什么要使用 Dask 数组?

Dask 将数组分成小块,其中每个块都是一个 NumPy 数组。

在 Python中处理大型机器学习数据集的简单方法

dask.arrays 用于处理大数组,以下Python代码使用 dask 创建了一个 10000 x 10000 的数组并将其存储在 x 变量中。

在 Python中处理大型机器学习数据集的简单方法

调用该 x 变量会产生有关数组的各种信息。

查看数组的特定元素

在 Python中处理大型机器学习数据集的简单方法

对dask 数组进行数学运算的Python示例:

在 Python中处理大型机器学习数据集的简单方法

正如您所看到的,由于延迟执行,它不会向您显示输出。我们可以使用compute来显示输出:

在 Python中处理大型机器学习数据集的简单方法

dask 数组支持大多数 NumPy 接口,如下所示:

  • 数学运算:+, *, exp, log, ...
  • sum(), mean(), std(), sum(axis=0), ...
  • 张量/点积/矩阵乘法:tensordot
  • 重新排序/转置:transpose
  • 切片:x[:100, 500:100:-2]
  • 使用列表或 NumPy 数组进行索引:x[:, [10, 1, 5]]
  • 线性代数:svd、qr、solve、solve_triangular、lstsq

但是,Dask Array 并没有实现完整 NumPy 接口。

你可以从他们的官方文档中了解更多关于 dask.arrays 的信息。

什么是Dask Persist?

假设您想对机器学习数据集执行一些耗时的操作,您可以将数据集持久化到内存中,从而使数学运算运行得更快。

从 dask.datasets 导入了时间序列数据

在 Python中处理大型机器学习数据集的简单方法

让我们取数据集的一个子集并计算该子集的总行数。

在 Python中处理大型机器学习数据集的简单方法

计算总行数需要 27 秒。

我们现在使用 persist 方法:

在 Python中处理大型机器学习数据集的简单方法

持久化我们的子集总共花了 2 分钟,现在让我们计算总行数。

在 Python中处理大型机器学习数据集的简单方法

同样,我们可以对持久化数据集执行其他操作以减少计算时间。

在 Python中处理大型机器学习数据集的简单方法

persist应用场景:

  • 数据量大
  • 获取数据的一个子集
  • 对子集应用不同的操作

为什么选择 Dask ML?

Dask ML有助于在大型数据集上使用流行的Python机器学习库(如Scikit learn等)来应用ML(机器学习)算法。

什么时候应该使用 dask ML?

  • 数据不大(或适合 RAM),但训练的机器学习模型需要大量超参数,并且调优或集成技术需要大量时间。
  • 数据量很大。

在 Python中处理大型机器学习数据集的简单方法

正如你所看到的,随着模型大小的增加,例如,制作一个具有大量超参数的复杂模型,它会引起计算边界的问题,而如果数据大小增加,它会引起内存分配错误。因此,在这两种情况下(红色阴影区域)我们都使用 Dask 来解决这些问题。

如官方文档中所述,dask ml 库用例:

  • 对于内存问题,只需使用 scikit-learn(或其他ML 库)。
  • 对于大型模型,使用 dask_ml.joblib 和scikit-learn estimators。
  • 对于大型数据集,使用 dask_ml estimators。

让我们看一下 Dask.distributed 的架构:

在 Python中处理大型机器学习数据集的简单方法

Dask 让您能够在计算机集群上运行任务。在 dask.distributed 中,只要您分配任务,它就会立即开始执行。

简单地说,client就是提交任务的你,执行任务的是Worker,调度器则执行两者之间通信。

python -m pip install dask distributed –upgrade

如果您使用的是单台机器,那么就可以通过以下方式创建一个具有4个worker的dask集群

在 Python中处理大型机器学习数据集的简单方法

如果需要dashboard,可以安装bokeh,安装bokeh的命令如下:

pip install bokeh

就像我们从 dask.distributed 创建客户端一样,我们也可以从 dask.distributed 创建调度程序。

要使用 dask ML 库,您必须使用以下命令安装它:

pip install dask-ml

我们将使用 Scikit-learn 库来演示 dask-ml 。

假设我们使用 Grid_Search 方法,我们通常使用如下Python代码

在 Python中处理大型机器学习数据集的简单方法

使用 dask.distributed 创建一个集群:

在 Python中处理大型机器学习数据集的简单方法

要使用集群拟合 scikit-learn 模型,我们只需要使用 joblib。

在 Python中处理大型机器学习数据集的简单方法

理论要掌握,实操不能落!以上关于《在 Python中处理大型机器学习数据集的简单方法》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

版本声明
本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
微软解释了为什么你的电脑经常无法更新到最新的 Windows 补丁微软解释了为什么你的电脑经常无法更新到最新的 Windows 补丁
上一篇
微软解释了为什么你的电脑经常无法更新到最新的 Windows 补丁
高考成绩陆续“放榜”人工智能有望成志愿填报热选项
下一篇
高考成绩陆续“放榜”人工智能有望成志愿填报热选项
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • SEO标题协启动:AI驱动的智能对话与内容生成平台 - 提升创作效率
    协启动
    SEO摘要协启动(XieQiDong Chatbot)是由深圳协启动传媒有限公司运营的AI智能服务平台,提供多模型支持的对话服务、文档处理和图像生成工具,旨在提升用户内容创作与信息处理效率。平台支持订阅制付费,适合个人及企业用户,满足日常聊天、文案生成、学习辅助等需求。
    9次使用
  • Brev AI:零注册门槛的全功能免费AI音乐创作平台
    Brev AI
    探索Brev AI,一个无需注册即可免费使用的AI音乐创作平台,提供多功能工具如音乐生成、去人声、歌词创作等,适用于内容创作、商业配乐和个人创作,满足您的音乐需求。
    9次使用
  • AI音乐实验室:一站式AI音乐创作平台,助力音乐创作
    AI音乐实验室
    AI音乐实验室(https://www.aimusiclab.cn/)是一款专注于AI音乐创作的平台,提供从作曲到分轨的全流程工具,降低音乐创作门槛。免费与付费结合,适用于音乐爱好者、独立音乐人及内容创作者,助力提升创作效率。
    9次使用
  • SEO标题PixPro:AI驱动网页端图像处理平台,提升效率的终极解决方案
    PixPro
    SEO摘要PixPro是一款专注于网页端AI图像处理的平台,提供高效、多功能的图像处理解决方案。通过AI擦除、扩图、抠图、裁切和压缩等功能,PixPro帮助开发者和企业实现“上传即处理”的智能化升级,适用于电商、社交媒体等高频图像处理场景。了解更多PixPro的核心功能和应用案例,提升您的图像处理效率。
    9次使用
  • EasyMusic.ai:零门槛AI音乐生成平台,专业级输出助力全场景创作
    EasyMusic
    EasyMusic.ai是一款面向全场景音乐创作需求的AI音乐生成平台,提供“零门槛创作 专业级输出”的服务。无论你是内容创作者、音乐人、游戏开发者还是教育工作者,都能通过EasyMusic.ai快速生成高品质音乐,满足短视频、游戏、广告、教育等多元需求。平台支持一键生成与深度定制,积累了超10万创作者,生成超100万首音乐作品,用户满意度达99%。
    12次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码