算法的掌握途径及角度

今天看到有个同学分享了关于算法学习的思路,觉得对于我来说启发很大,因此决定把他说的一些东西写下来以提醒自己:

首先是算法的产生背景,适用场合(数据规模,特征维度,是否有Online算法,离散/连续特征处理)

原理推导(最大间隔,软间隔,对偶)

求解方法(随机梯度下降,拟牛顿法等优化算法);

优缺点,相关改进

和其他基本方法对比;

在科研项目、实习、比赛中摸清算法特性,熟悉相关工具与模块的使用,科研我是没有机会了,希望我在学习到一定阶段以后可以争取到机器学习的相关实习。加油吧!路漫漫其修远兮~

时间: 2024-11-06 23:06:22

算法的掌握途径及角度的相关文章

【算法思想】循环移动一个数组

问题:如何将一个数组循环左移或者右移k位? 在下面的解决方案中,我们以循环左移为例. 我们最容易想到的是,将前k个元素复制到一个临时的数组中,然后将剩下的n-k个元素向左移动k个位置,然后将之前的k个元素复制到剩下的位置.这种方法使用了k个额外的存储空间.我们想到到另一种方法是,只借助一个临时空间,每次只向左移动1位,循环k次.这种方法产生了多于的运行时间.前面一篇文章中用程序实现了循环右移一个数组的算法.前面提到的都是比较常规的算法,下面从其它角度来考虑这一问题: 循环数组x其实就是交换数组x

微博推荐算法学习(Weibo Recommend Algolrithm)

原文:http://hijiangtao.github.io/2014/10/06/WeiboRecommendAlgorithm/ 基础及关联算法 作用:为微博推荐挖掘必要的基础资源.解决推荐时的通用技术问题.完成必要的数据分析.为推荐业务提供指导. 分词技术与核心词提取:是微博内容推荐的基础,用于将微博内容转化为结构化向量,包括词语切分.词语信息标注.内容核心词/实体词提取.语义依存分析等. 分类与anti-spam:用于微博内容推荐候选的分析,包含微博内容分类和营销广告/色情类微博识别:内

四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps

四大机器学习降维算法:PCA.LDA.LLE.Laplacian Eigenmaps 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中.降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式. y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的).f可能是显式的或隐式的.线性的或非线性的. 目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高阶张量表达的数据.之所以使用降维

旋转卡壳算法及应用 (参考论文)

多看论文开眼界! 转自:http://blog.csdn.net/acmaker/article/details/3188177 一.目录 一些历史: 1978年, M.I. Shamos's Ph.D. 的论文"Computational Geometry"标志着计算机科学的这一领域的诞生. 当时他发表成果的是一个寻找凸多边形直径的一个非常简单的算法, 即根据多边形的一对点距离的最大值来确定. 后来直径演化为由一对对踵点对来确定. Shamos提出了一个简单的 O(n) 时间的算法来

!HDU 1025 Constructing Roads In JGShining's Kingdom--DP--(LIS算法)

题意:在马路两边分别有n个城市,给出期望的n条路用于连接两边的城市,但是要求路不能有交叉,求在期望的n条中路实际能保留下来的最大的条数 分析:这题很好 1.本题抽象出来的模型应该是求最长上升(不下降)子序列 2.LIS的 nlog(n)算法: O(n^2) 的算法是dp[i]保留以i结尾的最长上升子序列的长度,令k=dp[i],O(nlog(n))算法是从k的角度出发,设d(k)为在长度为 k 的序列中的最小的位置,即:d(k)=min(a[i]),其中 f[i]=k,然后二分,每次看a[i]是

【转】四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps

最近在找降维的解决方案中,发现了下面的思路,后面可以按照这思路进行尝试下: 链接:http://www.36dsj.com/archives/26723 引言 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中.降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式. y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的).f可能是显式的或隐式的.线性的或非线性的. 目前大部分降维算法

数据挖掘十大算法——Naive Bayes

简介 Naive和Bayes Naive:假定向量中的所有特征是相互独立的 Bayes: 面向的问题 NB主要用于解决有监督分类问题.相比于其他模型,其具备简单(不需要复杂的迭代式参数估计,由此方便处理大数据).可解释性强(生成模型).效果佳的特点. 目标 针对二分类问题,利用训练集数据学习一个判断阈值α,对于新来的数据做判定,大于α的数据属于正类,小于α的数据属于负类.有监督分类中存在两大流派 diagnostic paradigm 和 sampling paradigm ,前者注重于发现类间

再理解RankNet算法

再理解RankNet算法 前面的一篇博文介绍了学习排序算法(Learning to Rank)中的RankNet算法.如下: http://blog.csdn.net/puqutogether/article/details/42124491 那次的入门对其中的算法流程和基本原理没有深入了解,这次看自动摘要提取算法的时候,里面有一个排序单元,使用到的就是学习排序算法中的RankNet,这个时候才理解了.这就说明,有的时候回过头来看某些算法,你的认识会加深的. 好了,这次主要说一下RankNet这

随机抽样一致性算法(RANSAC)转载

这两天看<计算机视觉中的多视图几何>人都看蒙了,转载一些干货看看 转自王先荣 http://www.cnblogs.com/xrwang/archive/2011/03/09/ransac-1.html 作者:王先荣    本文翻译自维基百科,英文原文地址是:http://en.wikipedia.org/wiki/ransac,如果您英语不错,建议您直接查看原文.    RANSAC是"RANdom SAmple Consensus(随机抽样一致)"的缩写.它可以从一组包