浅读机械进修有感(二)_数据_特点
6.1什么是特色选择?
特色选择便是纯挚地从提取到的所有特色中选择部分特色作为演习集特色,
特色在选择前和选择后可以改变值、也不改变值,但是选择后的特色维数肯
定比选择前小,毕竟我们只选择了个中的一部分特色。
6.2特色选择的紧张方法(三大武器):
1.Filter(过滤式):VarianceThreshold
利用:sklearn.feature_selection.VarianceThreshold
语法:
流程:
2.Embedded(嵌入式):正则化、决策树
3.Wrapper(包裹式)
七、机器学习中的降维技能(PCA主身分剖析):
7.1什么是PCA?
PCA是一种剖析、简化数据集的技能
目的是压缩数据维数,尽可能降落原数据的维数(繁芜度),丢失少量信息。
浸染是可以减少回归剖析或者聚类剖析中特色的数量
7.2PCA的语法:
7.3PCA的利用流程:
八、机器学习根本:
8.1机器学习开拓流程:
8.2机器学习模型:
8.3机器学习算法分类:
1.监督学习:
分类:k-隔壁算法、贝叶斯分类、决策树与随机森林、逻辑回归、神经网络
回归:线性回归、岭回归
标注:隐马尔可夫模型
2.无监督学习:
聚类:k-means
8.3机器学习算法定义:
1.监督学习:可以由输入数据中学到或建立一个模型,
并依此模式推测新的结果。输入数据是由输入特色值和目标值所组成。
函数的输出可以是一个连续的值(称为回归),
或是有限个离散值(称作分类)
2.无监督学习:可以由输入数据中学到或建立一个模型,
并依此模式推测新的结果。输入数据是输入特色值所组成。
九、sklearn数据集:
9.1数据集划分:
机器学习中一样平常的数据集会划分为两部分:
演习数据:用于演习,构建模型
测试数据:用于评估模型是否有效,在考验模型时利用
9.2sklearn中的数据集API:
返回的类型:
9.3sklearn中的分类数据集:
用于分类的大数据集:
sklearn.datasets.fetch_20newsgroups(data_home=None,subset=‘train’)
参数解析:subset为要加载的数据集,'train'为演习,'test'为测试,'all'为二者都要
打消目录下的数据集:
datasets.clear_data_home(data_home=None)
9.4sklearn中的数据集分割API:
9.5sklearn中的回归数据集:
9.6sklearn中机器学习算法的实现API—估计器(estimator)
9.6.1估计器的种类:
9.6.2估计器的事情流程:
十、分类算法中的k隔壁算法
10.1定义:如果一个样本在特色空间中的k个最相似(即特色空间中最临近)
的样本中的大多数属于某一个种别,则该样本也属于这个种别
10.2事理:
打算两个样本的间隔(欧式间隔)公式:
10.3 k隔壁算法API:
10.4k隔壁算法实例:
需求:预测用户的签到入住位置
10.5 k隔壁算法总结:
本文系作者个人观点,不代表本站立场,转载请注明出处!