Python3入门机器学习经典算法与应用

第1章 欢迎来到 Python3 玩转机器学习
1-1 什么是机器学习
1-2 课程涵盖的内容和理念
1-3 课程所使用的主要技术栈
第2章 机器学习基础
2-1 机器学习世界的数据
2-2 机器学习的主要任务
2-3 监督学习,非监督学习,半监督学习和增强学习
2-4 批量学习,在线学习,参数学习和非参数学习
2-5 和机器学习相关的“哲学”思考
2-6 课程使用环境搭建
第3章 Jupyter Notebook, numpy和matplotlib
3-1 Jupyter Notebook基础
3-2 Jupyter Notebook中的魔法命令
3-3 Numpy数据基础
3-4 创建Numpy数组(和矩阵)
3-5 Numpy数组(和矩阵)的基本操作
3-6 Numpy数组(和矩阵)的合并与分割
3-7 Numpy中的矩阵运算
3-8 Numpy中的聚合运算
3-9 Numpy中的arg运算
3-10 Numpy中的比较和Fancy Indexing
3-11 Matplotlib数据可视化基础
3-12 数据加载和简单的数据探索
第4章 最基础的分类算法-k近邻算法 kNN
4-1 k近邻算法基础
4-2 scikit-learn中的机器学习算法封装
4-3 训练数据集,测试数据集
4-4 分类准确度
4-5 超参数
4-6 网格搜索与k近邻算法中更多超参数
4-7 数据归一化
4-8 scikit-learn中的Scaler
4-9 更多有关k近邻算法的思考
第5章 线性回归法
5-1 简单线性回归
5-2 最小二乘法
5-3 简单线性回归的实现
5-4 向量化
5-5 衡量线性回归法的指标:MSE,RMSE和MAE
5-6 最好的衡量线性回归法的指标:R Squared
5-7 多元线性回归和正规方程解
5-8 实现多元线性回归
5-9 使用scikit-learn解决回归问题
5-10 线性回归的可解释性和更多思考
第6章 梯度下降法
6-1 什么是梯度下降法
6-2 模拟实现梯度下降法
6-3 线性回归中的梯度下降法
6-4 实现线性回归中的梯度下降法
6-5 梯度下降法的向量化和数据标准化
6-6 随机梯度下降法
6-7 scikit-learn中的随机梯度下降法
6-8 如何确定梯度计算的准确性?调试梯度下降法
6-9 有关梯度下降法的更多深入讨论
第7章 PCA与梯度上升法
7-1 什么是PCA
7-2 使用梯度上升法求解PCA问题
7-3 求数据的主成分PCA
7-4 求数据的前n个主成分
7-5 高维数据映射为低维数据
7-6 scikit-learn中的PCA
7-7 试手MNIST数据集
7-8 使用PCA对数据进行降噪
7-9 人脸识别与特征脸
第8章 多项式回归与模型泛化
8-1 什么是多项式回归
8-2 scikit-learn中的多项式回归与Pipeline
8-3 过拟合与欠拟合
8-4 为什么要有训练数据集与测试数据集
8-5 学习曲线
8-6 验证数据集与交叉验证
8-7 偏差方差平衡
8-8 模型泛化与岭回归
8-9 LASSO
8-10 L1, L2和弹性网络
第9章 逻辑回归
9-1 什么是逻辑回归
9-2 逻辑回归的损失函数
9-3 逻辑回归损失函数的梯度
9-4 实现逻辑回归算法
9-5 决策边界
9-6 在逻辑回归中使用多项式特征
9-7 scikit-learn中的逻辑回归
9-8 OvR与OvO
第10章 评价分类结果
10-1 准确度的陷阱和混淆矩阵
10-2 精准率和召回率
10-3 实现混淆矩阵,精准率和召回率
10-4 F1 Score
10-5 精准率和召回率的平衡
10-6 精准率-召回率曲线
10-7 ROC曲线
10-8 多分类问题中的混淆矩阵
第11章 支撑向量机 SVM
11-1 什么是SVM
11-2 SVM背后的最优化问题
11-3 Soft Margin SVM
11-4 scikit-learn中的SVM
11-5 SVM中使用多项式特征和核函数
11-6 到底什么是核函数
11-7 RBF核函数
11-8 RBF核函数中的gamma
11-9 SVM思想解决回归问题
第12章 决策树
12-1 什么是决策树
12-2 信息熵
12-3 使用信息熵寻找最优划分
12-4 基尼系数
12-5 CART与决策树中的超参数
12-6 决策树解决回归问题
12-7 决策树的局限性
第13章 集成学习和随机森林
13-1 什么是集成学习
13-2 Soft Voting Classifier
13-3 Bagging 和 Pasting
13-4 oob (Out-of-Bag) 和关于Bagging的更多讨论
13-5 随机森林和 Extra-Trees
13-6 Ada Boosting 和 Gradient Boosting
13-7 Stacking
第14章 更多机器学习算法
14-1 学习scikit-learn文档, 大家加油!
14-2 学习完这个课程以后怎样继续深入机器学习的学习?

地址:https://pan.baidu.com/s/19TUGjORKH1ULZ-8qNxQUgw
密码:bymr

原文地址:https://www.cnblogs.com/heguoxiu/p/10897815.html

时间: 2024-08-16 00:02:43

Python3入门机器学习经典算法与应用的相关文章

Python3入门机器学习 经典算法与应用

详情请交流  QQ  709639943 00.Python3入门机器学习 经典算法与应用 00.老司机学python篇:第一季(基础速过.机器学习入门) 00.Python 从入门到精通 78节.2000多分钟.36小时的高质量.精品.1080P高清视频教程!包括标准库.socket网络编程.多线程.多进程和协程. 00.Django实战之用户认证系统 00.Django实战之企业级博客 00.深入浅出Netty源码剖析 00.NIO+Netty5各种RPC架构实战演练 00.JMeter 深

Python3入门机器学习--经典算法与应用|Python3机器学习

Python3入门机器学习--经典算法与应用网盘地址:https://pan.baidu.com/s/1JU3xUckrJ6mIFmbPZ2SE-g 密码: b4i8备用地址(腾讯微云):https://share.weiyun.com/1a5b40b998601d64fb5211c21fb71212 密码:3kt4wq 使用scikit-learn内置的大量数据集,结合实际项目,让你不仅懂算法更会用算法:使用机器学习算法进行图像去噪,让你认识一个不一样的机器学习世界:分类任务使用世界著名的MN

Python3入门机器学习经典算法与应用学习 资源

 Python3入门机器学习经典算法与应用学习 资源 datasets可以用来加载真实数据进行模型训练的测试 import sklearn.datasetsdatasets.load_iris() # 用于加载鸢尾花数据集datasets.load_digits() # 用于加载手写识别的数据集datasets.load_boston() #  用于加载波士顿房价的数据集fetch_mldata用于加载MNIST数据集from sklearn.datasets import fetch_mlda

Pyhon3实现机器学习经典算法(一)KNN

一.KNN概述 K-(最)近邻算法KNN(k-Nearest Neighbor)是数据挖掘分类技术中最简单的方法之一.它具有精度高.对异常值不敏感的优点,适合用来处理离散的数值型数据,但是它具有 非常高的计算复杂度和空间复杂度,需要大量的计算(距离计算). 它的工作原理是:如果已经给定一个带有标签(分类)的数据集(训练集),对于每一个给定的没有标签(分类)的新向量,通过计算该向量与训练集中的每一个向量的距离, 选择前k个最小的距离,在k个距离中出现次数最多的标签(分类)则是新向量的标签(分类).

机器学习经典算法具体解释及Python实现--线性回归(Linear Regression)算法

(一)认识回归 回归是统计学中最有力的工具之中的一个. 机器学习监督学习算法分为分类算法和回归算法两种,事实上就是依据类别标签分布类型为离散型.连续性而定义的. 顾名思义.分类算法用于离散型分布预測,如前面讲过的KNN.决策树.朴素贝叶斯.adaboost.SVM.Logistic回归都是分类算法.回归算法用于连续型分布预測.针对的是数值型的样本,使用回归.能够在给定输入的时候预測出一个数值.这是对分类方法的提升,由于这样能够预測连续型数据而不不过离散的类别标签. 回归的目的就是建立一个回归方程

机器学习经典算法详解及Python实现--线性回归(Linear Regression)算法

(一)认识回归 回归是统计学中最有力的工具之一.机器学习监督学习算法分为分类算法和回归算法两种,其实就是根据类别标签分布类型为离散型.连续性而定义的.顾名思义,分类算法用于离散型分布预测,如前面讲过的KNN.决策树.朴素贝叶斯.adaboost.SVM.Logistic回归都是分类算法:回归算法用于连续型分布预测,针对的是数值型的样本,使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提升,因为这样可以预测连续型数据而不仅仅是离散的类别标签. 回归的目的就是建立一个回归方程用来预测目

机器学习经典算法详解及Python实现---朴素贝叶斯分类及其在文本分类、垃圾邮件检测中的应用

摘要: 朴素贝叶斯分类是贝叶斯分类器的一种,贝叶斯分类算法是统计学的一种分类方法,利用概率统计知识进行分类,其分类原理就是利用贝叶斯公式根据某对象的先验概率计算出其后验概率(即该对象属于某一类的概率),然后选择具有最大后验概率的类作为该对象所属的类.总的来说:当样本特征个数较多或者特征之间相关性较大时,朴素贝叶斯分类效率比不上决策树模型:当各特征相关性较小时,朴素贝叶斯分类性能最为良好.另外朴素贝叶斯的计算过程类条件概率等计算彼此是独立的,因此特别适于分布式计算.本文详述了朴素贝叶斯分类的统计学

机器学习经典算法具体解释及Python实现--K近邻(KNN)算法

(一)KNN依旧是一种监督学习算法 KNN(K Nearest Neighbors,K近邻 )算法是机器学习全部算法中理论最简单.最好理解的.KNN是一种基于实例的学习,通过计算新数据与训练数据特征值之间的距离,然后选取K(K>=1)个距离近期的邻居进行分类推断(投票法)或者回归.假设K=1.那么新数据被简单分配给其近邻的类.KNN算法算是监督学习还是无监督学习呢?首先来看一下监督学习和无监督学习的定义.对于监督学习.数据都有明白的label(分类针对离散分布,回归针对连续分布),依据机器学习产

机器学习经典算法详解及Python实现--基于SMO的SVM分类器

原文:http://blog.csdn.net/suipingsp/article/details/41645779 支持向量机基本上是最好的有监督学习算法,因其英文名为support vector machine,简称SVM.通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解. (一)理解SVM基本原理 1,SVM的本质--分类 给定一些数据点,它们分别属于两个不同的类,现在要找到一个线性分类器把这些