机器学习游学记

小记机器学习路上的沟沟坎坎。

STEP 1 CHOOSE TENSORFLOW

其实是刚开始实际接触机器学习啊,之前就是一直各种道听途说,从今天开始就要真的踏进这滩浑水了。

不过一开始也没有自己写框架的打算,目前也就打算先看一段时间Google的tensorflow,把官方文档那里的名词一个一个的都get了先,同时会用tensorflow就行了,到最后再尝试着自己写个框架,毕竟人还是要有点梦想的对不对,万一就超过Google那一堆工程师呢。就写个游学记把自己学习的过程记录一下吧。

呐,第一步,选择tensorflow。

时间: 2024-10-25 08:00:39

机器学习游学记的相关文章

机器学习实记(三)模型误差的来源

一.写在前面 本节所讲的内容主要是讨论如何进一步提高通过机器学习获得fbest的准确度使其更进一步接近ftrue,为了解决这个问题我们必须先明确我们学习得到的fbest的误差来自于哪里.这里先提一下误差的主要两个来源分别是bias和variance,即偏差和方差,换句话说当你想进一步提高你模型的精确度的时候你可以分析你所设计模型的误差是主要来自bias还是variance,然后有针对的去改进来进一步的提高模型的精度. 二.bias和variance 那么究竟什么是bias什么是variance?

记一下机器学习笔记 多层感知机的反向传播算法

<神经网络与机器学习>第4章前半段笔记以及其他地方看到的东西的混杂-第2.3章的内容比较古老预算先跳过. 不得不说幸亏反向传播的部分是<神机>里边人话比较多的部分,看的时候没有消化不良. 多层感知机 书里前三章的模型的局限都很明显,对于非线性可分问题苦手,甚至简单的异或都弄不了.于是多层感知机(也就是传说中的神经网络)就被发明了出来对付这个问题. 多层感知机就是由一系列的感知机,或者说神经元组成,每个神经元都接受若干的输入(树突)并产生一个输出(轴突). 这些神经元被分成若干层,每

记一下机器学习笔记 Rosenblatt感知机

一入ML深似海啊- 这里主要是<神经网络与机器学习>(Neural Networks and Learning Machines,以下简称<神机>)的笔记,以及一些周志华的<机器学习>的内容,可能夹杂有自己的吐槽,以及自己用R语言随便撸的实现. 话说这个<神经网络与机器学习>还真是奇书,不知是作者风格还是翻译问题,一眼望去看不到几句人话(也许是水利狗看不懂),感觉我就是纯买来自虐的. 作为开始当然是最古老的机器学习算法之一,神经网络的板砖感知机,对应<

机器学习课程3-笔记

课程3 课程3 大纲 多元线性回归的最小二乘解 1几何解释 2广义逆的奇异性 3无偏估计 岭回归 1几何意义 2岭回归的性质 3的选择原则 4用岭回归选择变量 5岭回归存在的问题 6通过R演练 LASSO 1LASSO vs 岭回归 11弹性网 2求解过程LAR算法 1.大纲 扔给你一堆数据,可能有成百上千各变量,怎样变量选择,怎样排除多重共线性问题: 要么丰厚的业务知识丰富,根据经验来选择: 要么让数据自己说话,把相关的变量筛选出来,这是很典型的数据挖掘 介绍两个回归方法 岭回归(Ridge

机器学习课程1-笔记

课程1 授课讲师: 黄志洪(tigerfish),ITPUB创始人,中山大学海量数据与云计算研究中心主任.数据库专家,数据分析专家,有丰富的IT领域.数学领域的知识经验. R语言.Hadoop.Python.Matlab,推荐的这些软件,是为了不用写程序,核心不是掌握工具 是一门算法课程.面向数学建模,如电子商务数据.推荐系统.脱离具体软件讲算法 懂原理,要经得起别人问什么. 基本统计知识.线性代数.90%讲数据分析 怎样把复杂的算法用浅显易懂的方式和例子,向非专业人士清晰表达 数学为什么难?剥

记微软OpenHack机器学习挑战赛

有幸参加了微软OpenHack挑战赛,虽然题目难度不大,但是很有意思,学到了很多东西,还有幸认识了微软梁健老师,谢谢您的帮助!同时还认识同行的很多朋友,非常高兴,把这段难忘的比赛记录一下~~也分享一下代码,给那些没有参加的朋友, 数据集(文末链接) 首先每支队伍会收到一个数据集,它是一个登山公司提供的装备图片,有登山镐,鞋子,登山扣,不知道叫什么的雪地爪?手套,冲锋衣,安全带...一共12个类别,每个类别几百个样本,我们的任务就是对这些图片分类和识别 简单看一下: 赛题: 赛题共有6道,简单描述

机器学习课程2-笔记

课程2 课程2 归纳 回归就是变量之间的关系 相关系数 RSS 线性回归通过R语言 多元线性模型 虚拟变量哑变量 多元线性回归模型 回归诊断 广义线性模型 一元以及多元的线性回归,统计学东西比较多,统计学术语一堆堆的 <大数据的统计学基础>基础的基础 logistic回归,划入广义线性回归模型. 变量筛选,从一堆变量中求解出来,以及降维. 1.归纳 拟合,一般选择直线或者次数比较低得曲线.(测试有误差,曲线如果经过每一个点,叫拟合过度.虽然模型内的非常准确,但是进行预测则可能更不准确) 学习集

[干货]Kaggle热门 | 用一个框架解决所有机器学习难题

新智元推荐 来源:LinkedIn 作者:Abhishek Thakur 译者:弗格森 [新智元导读]本文是数据科学家Abhishek Thakur发表的Kaggle热门文章.作者总结了自己参加100多场机器学习竞赛的经验,主要从模型框架方面阐述了机器学习过程中可能会遇到的难题,并给出了自己的解决方案,他还列出了自己平时研究所使用的数据库.算法.机器学习框架等等,具有一定的参考价值.作者称:"文章几乎涵盖了机器学习所面临的所有问题."他说得怎么样?欢迎留言评论,发表你的看法. 本文在L

视觉机器学习读书笔记--------BP学习

反向传播算法(Back-Propagtion Algorithm)即BP学习属于监督式学习算法,是非常重要的一种人工神经网络学习方法,常被用来训练前馈型多层感知器神经网络. 一.BP学习原理 1.前馈型神经网络 是指网络在处理信息时,信息只能由输入层进入网络,随后逐层向前进行传递,一直到输出层,网络中不存在环路:前馈神经网络是神经网络中的典型分层结构,根据前馈网络中神经元转移函数.网络层数.各层基本单元数目以及权重调整方式的不同,可以形成不同功能特点的神经网络.前馈型神经网络由输入层.中间层(隐