【机器学习】谷歌的速成课程(一)

问题构建 (Framing)

  • 什么是(监督式)机器学习?简单来说,它的定义如下:

    • 机器学习系统通过学习如何组合输入信息来对从未见过的数据做出有用的预测。

    标签

    在简单线性回归中,标签是我们要预测的事物,即 y 变量。标签可以是小麦未来的价格、图片中显示的动物品种、音频剪辑的含义或任何事物。

    特征

    在简单线性回归中,特征是输入变量,即 x 变量。简单的机器学习项目可能会使用单个特征,而比较复杂的机器学习项目可能会使用数百万个特征,按如下方式指定: {x1,x2,...xN}

    (可量化!)

    样本

    是指数据的特定实例: 有标签样本,无标签样本

    模型

    模型定义了特征与标签之间的关系。

    • 训练表示创建或学习模型。也就是说,您向模型展示有标签样本,让模型逐渐学习特征与标签之间的关系。
    • 推断表示将训练后的模型应用于无标签样本。也就是说,您使用训练后的模型来做出有用的预测 (y‘)。

    回归模型可预测连续值。

    分类模型可预测离散值。

原文地址:https://www.cnblogs.com/Macaulish/p/8519789.html

时间: 2024-07-30 13:15:12

【机器学习】谷歌的速成课程(一)的相关文章

【机器学习】谷歌的速成课程(二)

线性回归 训练模型表示通过有标签样本来学习(确定)所有权重和偏差的理想值.在监督式学习中,机器学习算法通过以下方式构建模型:检查多个样本并尝试找出可最大限度地减少损失的模型:这一过程称为经验风险最小化. 均方误差 (MSE) 指的是每个样本的平均平方损失.要计算 MSE,请求出各个样本的所有平方损失之和,然后除以样本数量 原文地址:https://www.cnblogs.com/Macaulish/p/8519976.html

谷歌机器学习速成课程---3降低损失:迭代方法

迭代学习可能会让您想到"Hot and Cold"这种寻找隐藏物品(如顶针)的儿童游戏.在我们的游戏中,"隐藏的物品"就是最佳模型.刚开始,您会胡乱猜测("w1 的值为 0."),等待系统告诉您损失是多少.然后,您再尝试另一种猜测("w1 的值为 0.5."),看看损失是多少.哎呀,这次更接近目标了.实际上,如果您以正确方式玩这个游戏,通常会越来越接近目标.这个游戏真正棘手的地方在于尽可能高效地找到最佳模型. 下图显示了机器学

AI - Google的机器学习速成课程

Google的机器学习速成课程 机器学习速成课程(MLCC,machine-learning crash-course):https://developers.google.com/machine-learning/crash-course/ 机器学习术语表:https://developers.google.com/machine-learning/glossary/ 基本全程中文,程共25节,大约15小时,包含40多项练习,有对算法实际运用的互动直观展示,可以更容易地学习和实践机器学习概念.

【pyqtgraph绘图】Qt速成课程

解读官方API-Qt速成课程 参考:http://www.pyqtgraph.org/documentation/qtcrashcourse.html Qt速成课程 PyQtGraph广泛使用Qt来生成几乎所有的可视化输出和接口.Qt的文档编写得非常好,我们鼓励所有pyqtgraph开发人员熟悉它. 本节的目的是介绍使用Qt(使用PyQt或PySide)为pyqtgraph开发人员编程. QWidgets和布局 Qt GUI几乎总是由几个基本组件组成: 一个窗口.这通常由QMainWindow提

谷歌机器学习速成课程---1框架处理

本文内容摘自  谷歌机器学习免费课程MLCC: https://developers.google.com/machine-learning/crash-course/ ============================================================================================================================================= 什么是(监督式)机器学习?简单来说,它的定义如

谷歌机器学习速成课程---2深入了解机器学习(Descending into ML)

1.线性回归 人们早就知晓,相比凉爽的天气,蟋蟀在较为炎热的天气里鸣叫更为频繁.数十年来,专业和业余昆虫学者已将每分钟的鸣叫声和温度方面的数据编入目录.Ruth 阿姨将她喜爱的蟋蟀数据库作为生日礼物送给您,并邀请您自己利用该数据库训练一个模型,从而预测鸣叫声与温度的关系. 首先建议您将数据绘制成图表,了解下数据的分布情况: 图 1. 每分钟的鸣叫声与温度(摄氏度)的关系. 毫无疑问,此曲线图表明温度随着鸣叫声次数的增加而上升.鸣叫声与温度之间的关系是线性关系吗?是的,您可以绘制一条直线来近似地表

谷歌机器学习速成课程---3降低损失 (Reducing Loss):学习速率

正如之前所述,梯度矢量具有方向和大小.梯度下降法算法用梯度乘以一个称为学习速率(有时也称为步长)的标量,以确定下一个点的位置.例如,如果梯度大小为 2.5,学习速率为 0.01,则梯度下降法算法会选择距离前一个点 0.025 的位置作为下一个点. 超参数是编程人员在机器学习算法中用于调整的旋钮.大多数机器学习编程人员会花费相当多的时间来调整学习速率.如果您选择的学习速率过小,就会花费太长的学习时间: 图 6. 学习速率过小. 相反,如果您指定的学习速率过大,下一个点将永远在 U 形曲线的底部随意

谷歌机器学习速成课程---3降低损失 (Reducing Loss):梯度下降法

迭代方法图(图 1)包含一个标题为"计算参数更新"的华而不实的绿框.现在,我们将用更实质的方法代替这种华而不实的算法. 假设我们有时间和计算资源来计算 w1 的所有可能值的损失.对于我们一直在研究的回归问题,所产生的损失与 w1 的图形始终是凸形.换言之,图形始终是碗状图,如下所示: 图 2. 回归问题产生的损失与权重图为凸形. 凸形问题只有一个最低点:即只存在一个斜率正好为 0 的位置.这个最小值就是损失函数收敛之处. 通过计算整个数据集中 w1 每个可能值的损失函数来找到收敛点这种

机器学习之&&Andrew Ng课程复习--- 怎样选择机器学习方法、系统

大家都说dual(对偶)问题(数学渣此前对此只是对其概念的了解)在机器学习应用中很广泛,遂写下(其实查阅纪录)以下关于dual的相关知识,这套理论不仅适用于SVM的优化问题,而是对于所有带约束的优化问题都适用,是优化理论中的一个重要部分.(也许你觉得一个IT人优化问题不重要,其实你仔细想想,现实中的很多问题,都是在有条件约束的情况下的求最优的问题) 简单来说,对于任意一个带约束的优化都可以写成这样的形式: minf0(x) s.t.fi(x)≤0,i=1,-,m hi(x)=0,i=1,-,p