机器学习模型选择
哈喽!大家好,很高兴又见面了,我是golang学习网的一名作者,今天由我给大家带来一篇《机器学习模型选择》,本文主要会讲到等等知识点,希望大家一起学习进步,也欢迎大家关注、点赞、收藏、转发! 下面就一起来看看吧!

一、简介
在本文中,我们将学习如何在具有不同超参数的多个模型之间选择最佳模型,在某些情况下,我们可以拥有 50 多个不同的模型,了解如何选择一个模型对于为您的数据集获得最佳性能的模型非常重要.
我们将通过选择最佳学习算法及其最佳超参数来进行模型选择。
但是首先什么是超参数?这些是用户设置的附加设置,将影响模型学习其参数的方式。 参数 另一方面是模型在训练过程中学习的内容。
2. 使用穷举搜索。
穷举搜索涉及通过搜索一系列超参数来选择最佳模型。为此,我们利用 scikit-learn 的 gridsearchcv.
gridsearchcv 的工作原理:
- 用户为一个或多个超参数定义一组可能的值。
- gridsearchcv 使用每个值和/或值的组合来训练模型。
- 性能最佳的模型被选为最佳模型。
示例
我们可以设置逻辑回归作为我们的学习算法并调整两个超参数(c 和正则化惩罚)。我们还可以指定两个参数:求解器和最大迭代次数。
现在,对于 c 和正则化惩罚值的每种组合,我们训练模型并使用 k 折交叉验证对其进行评估。
因为我们有 10 个可能的 c 值,所以有 2 个可能的 reg 值。惩罚和 5 倍,我们总共有 (10 x 2 x 5 = 100) 个候选模型,从中选择最好的。
# load libraries import numpy as np from sklearn import linear_model, datasets from sklearn.model_selection import gridsearchcv # load data iris = datasets.load_iris() features = iris.data target = iris.target # create logistic regression logistic = linear_model.logisticregression(max_iter=500, solver='liblinear') # create range of candidate penalty hyperparameter values penalty = ['l1','l2'] # create range of candidate regularization hyperparameter values c = np.logspace(0, 4, 10) # create dictionary of hyperparameter candidates hyperparameters = dict(c=c, penalty=penalty) # create grid search gridsearch = gridsearchcv(logistic, hyperparameters, cv=5, verbose=0) # fit grid search best_model = gridsearch.fit(features, target) # show the best model print(best_model.best_estimator_) # logisticregression(c=7.742636826811269, max_iter=500, penalty='l1', solver='liblinear') # result
获得最佳模型:
# view best hyperparameters
print('best penalty:', best_model.best_estimator_.get_params()['penalty'])
print('best c:', best_model.best_estimator_.get_params()['c'])
# best penalty: l1 #result
# best c: 7.742636826811269 # result
3. 使用随机搜索。
当您想要一种比穷举搜索更便宜的计算方法来选择最佳模型时,通常会使用这种方法。
值得注意的是,randomizedsearchcv 本质上并不比 gridsearchcv 更快,但它通常只需通过测试更少的组合即可在更短的时间内实现与 gridsearchcv 相当的性能。
randomizedsearchcv 的工作原理:
- 用户将提供超参数/分布(例如正态、均匀)。
- 算法将随机搜索给定超参数值的特定数量的随机组合,而不进行替换。
示例
# load data iris = datasets.load_iris() features = iris.data target = iris.target # create logistic regression logistic = linear_model.logisticregression(max_iter=500, solver='liblinear') # create range of candidate regularization penalty hyperparameter values penalty = ['l1', 'l2'] # create distribution of candidate regularization hyperparameter values c = uniform(loc=0, scale=4) # create hyperparameter options hyperparameters = dict(c=c, penalty=penalty) # create randomized search randomizedsearch = randomizedsearchcv( logistic, hyperparameters, random_state=1, n_iter=100, cv=5, verbose=0, n_jobs=-1) # fit randomized search best_model = randomizedsearch.fit(features, target) # print best model print(best_model.best_estimator_) # logisticregression(c=1.668088018810296, max_iter=500, penalty='l1', solver='liblinear') #result.
获得最佳模型:
# view best hyperparameters
print('best penalty:', best_model.best_estimator_.get_params()['penalty'])
print('best c:', best_model.best_estimator_.get_params()['c'])
# best penalty: l1 # result
# best c: 1.668088018810296 # result
注意:训练的候选模型数量在n_iter(迭代次数)设置中指定。
4. 从多种学习算法中选择最佳模型。
在这一部分中,我们将了解如何通过搜索一系列学习算法及其各自的超参数来选择最佳模型。
我们可以通过简单地创建候选学习算法及其超参数的字典来用作 gridsearchcv.
的搜索空间来做到这一点步骤:
- 我们可以定义一个包含两种学习算法的搜索空间。
- 我们指定超参数,并使用格式分类器[超参数名称]_定义它们的候选值。
# load libraries
import numpy as np
from sklearn import datasets
from sklearn.linear_model import logisticregression
from sklearn.ensemble import randomforestclassifier
from sklearn.model_selection import gridsearchcv
from sklearn.pipeline import pipeline
# set random seed
np.random.seed(0)
# load data
iris = datasets.load_iris()
features = iris.data
target = iris.target
# create a pipeline
pipe = pipeline([("classifier", randomforestclassifier())])
# create dictionary with candidate learning algorithms and their hyperparameters
search_space = [{"classifier": [logisticregression(max_iter=500,
solver='liblinear')],
"classifier__penalty": ['l1', 'l2'],
"classifier__c": np.logspace(0, 4, 10)},
{"classifier": [randomforestclassifier()],
"classifier__n_estimators": [10, 100, 1000],
"classifier__max_features": [1, 2, 3]}]
# create grid search
gridsearch = gridsearchcv(pipe, search_space, cv=5, verbose=0)
# fit grid search
best_model = gridsearch.fit(features, target)
# print best model
print(best_model.best_estimator_)
# pipeline(steps=[('classifier',
logisticregression(c=7.742636826811269, max_iter=500,
penalty='l1', solver='liblinear'))])
最佳模特:
搜索完成后,我们可以使用best_estimator_查看最佳模型的学习算法和超参数。
5. 预处理时选择最佳模型。
有时我们可能希望在模型选择过程中包含预处理步骤。
最好的解决方案是创建一个包含预处理步骤及其任何参数的管道:
第一个挑战:
gridseachcv 使用交叉验证来确定性能最高的模型。
然而,在交叉验证中,我们假装未看到测试集时保留的折叠,因此不属于任何预处理步骤(例如缩放或标准化)。
因此,预处理步骤必须是 gridsearchcv 所采取的操作集的一部分。
解决方案
scikit-learn 提供了 featureunion,它允许我们正确组合多个预处理操作。
步骤:
- 我们使用_featureunion _组合两个预处理步骤:标准化特征值(standardscaler)和主成分分析(pca) ) - 该对象称为预处理,包含我们的两个预处理步骤。
- 接下来,我们使用学习算法在管道中加入预处理。
这使我们能够将拟合、转换和训练具有超参数组合的模型的正确处理外包给 scikit-learn。
第二个挑战:
一些预处理方法(例如 pca)有自己的参数,使用 pca 进行降维需要用户定义用于生成转换后的特征集的主成分数量。理想情况下,我们会选择能够生成针对某些评估测试指标具有最佳性能的模型的组件数量。
解决方案。
在 scikit-learn 中,当我们在搜索空间中包含候选组件值时,它们会像任何其他要搜索的超参数一样被对待。
# load libraries
import numpy as np
from sklearn import datasets
from sklearn.linear_model import logisticregression
from sklearn.model_selection import gridsearchcv
from sklearn.pipeline import pipeline, featureunion
from sklearn.decomposition import pca
from sklearn.preprocessing import standardscaler
# set random seed
np.random.seed(0)
# load data
iris = datasets.load_iris()
features = iris.data
target = iris.target
# create a preprocessing object that includes standardscaler features and pca
preprocess = featureunion([("std", standardscaler()), ("pca", pca())])
# create a pipeline
pipe = pipeline([("preprocess", preprocess),
("classifier", logisticregression(max_iter=1000,
solver='liblinear'))])
# create space of candidate values
search_space = [{"preprocess__pca__n_components": [1, 2, 3],
"classifier__penalty": ["l1", "l2"],
"classifier__c": np.logspace(0, 4, 10)}]
# create grid search
clf = gridsearchcv(pipe, search_space, cv=5, verbose=0, n_jobs=-1)
# fit grid search
best_model = clf.fit(features, target)
# print best model
print(best_model.best_estimator_)
# pipeline(steps=[('preprocess',
featureunion(transformer_list=[('std', standardscaler()),
('pca', pca(n_components=1))])),
('classifier',
logisticregression(c=7.742636826811269, max_iter=1000,
penalty='l1', solver='liblinear'))]) # result
模型选择完成后,我们可以查看生成最佳模型的预处理值。
产生最佳模式的预处理步骤
# view best n_components best_model.best_estimator_.get_params() # ['preprocess__pca__n_components'] # results
5. 通过并行化加速模型选择。
那个时候你需要减少选择模型的时间。
我们可以通过同时训练多个模型来做到这一点,这是通过设置 n_jobs=-1
使用我们机器中的所有核心来完成的
# load libraries
import numpy as np
from sklearn import linear_model, datasets
from sklearn.model_selection import gridsearchcv
# load data
iris = datasets.load_iris()
features = iris.data
target = iris.target
# create logistic regression
logistic = linear_model.logisticregression(max_iter=500,
solver='liblinear')
# create range of candidate regularization penalty hyperparameter values
penalty = ["l1", "l2"]
# create range of candidate values for c
c = np.logspace(0, 4, 1000)
# create hyperparameter options
hyperparameters = dict(c=c, penalty=penalty)
# create grid search
gridsearch = gridsearchcv(logistic, hyperparameters, cv=5, n_jobs=-1,
verbose=1)
# fit grid search
best_model = gridsearch.fit(features, target)
# print best model
print(best_model.best_estimator_)
# fitting 5 folds for each of 2000 candidates, totalling 10000 fits
# logisticregression(c=5.926151812475554, max_iter=500, penalty='l1',
solver='liblinear')
6. 加速模型选择(算法特定方法)。
这是一种无需使用额外计算能力即可加速模型选择的方法。
这是可能的,因为 scikit-learn 具有特定于模型的交叉验证超参数调整。
有时学习算法的特性使我们能够更快地搜索最佳超参数。
示例:
logisticregression 用于进行标准逻辑回归分类器。
logisticregressioncv 实现了一个高效的交叉验证逻辑回归分类器,可以识别超参数 c 的最佳值。
# Load libraries
from sklearn import linear_model, datasets
# Load data
iris = datasets.load_iris()
features = iris.data
target = iris.target
# Create cross-validated logistic regression
logit = linear_model.LogisticRegressionCV(Cs=100, max_iter=500,
solver='liblinear')
# Train model
logit.fit(features, target)
# Print model
print(logit)
# LogisticRegressionCV(Cs=100, max_iter=500, solver='liblinear')
注意:logisticregressioncv 的一个主要缺点是它只能搜索 c 的一系列值。这种限制对于许多 scikit-learn 特定于模型的交叉验证方法来说很常见。
我希望本文有助于快速概述如何选择机器学习模型。
本篇关于《机器学习模型选择》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!
Java函数式编程:探索其优缺点
- 上一篇
- Java函数式编程:探索其优缺点
- 下一篇
- 如何对涉及数据库交互的 Golang 函数进行单元测试?
-
- 文章 · python教程 | 6分钟前 |
- 提升TesseractOCR准确率技巧分享
- 250浏览 收藏
-
- 文章 · python教程 | 22分钟前 | 数据库索引 N+1查询 Django数据库查询优化 select_related prefetch_related
- Django数据库查询优化方法详解
- 118浏览 收藏
-
- 文章 · python教程 | 24分钟前 |
- Python中处理SIGALRM的sigwait方法
- 318浏览 收藏
-
- 文章 · python教程 | 34分钟前 |
- 汉诺塔递归算法详解与代码实现
- 207浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Tkinter游戏开发:线程实现稳定收入不卡顿
- 383浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- 优化VSCodeJupyter单元格插入方式
- 358浏览 收藏
-
- 文章 · python教程 | 9小时前 |
- Python如何重命名数据列名?columns教程
- 165浏览 收藏
-
- 文章 · python教程 | 10小时前 |
- 异步Python机器人如何非阻塞运行?
- 216浏览 收藏
-
- 文章 · python教程 | 10小时前 |
- Python排序忽略大小写技巧详解
- 325浏览 收藏
-
- 文章 · python教程 | 11小时前 |
- Python列表引用与复制技巧
- 300浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3193次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3406次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3436次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4544次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3814次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

