关于图像分类问题读后感

文章链接:https://zhuanlan.zhihu.com/p/20900216

1、图像可能分类是事先已知的,比如:分类集合={小猫,小狗,小花,......}

2、图像分类就是为给定的图像给它一个从分类集合中挑出一个,打上标签,表示它就是这个类。

以下为了计算的方便,图像统一用矩阵表示,这是因为,在计算机的世界里,对图像的操作就是对一堆0-255的像素进行操作,而这些像素都存放在矩阵中。

一个32*32的图片,含有32*32*3个像素,每个像素的值是[0,255](从黑到白,哈哈),3表示RGB三个通道的信息。

3、最近邻分类器的思想,是利用距离来作为评价准则。比如:

---------------------------------------------------------------------------------

两张图片使用L1距离来进行比较。逐个像素求差值,然后将所有差值加起来得到一个数值。如果两张图片一模一样,那么L1距离为0,但是如果两张图片很是不同,那L1值将会非常大。这也就说明了,最近邻分类器是根据像素进行分类的。这就可能会出现两张根本就不同的图像但差值相同,就误以为同一个类别的问题,比如:

-------------------------------------------------------------------------------------------------------------------------------------

在高维度数据上,基于像素的的距离和感官上的非常不同。上图中,右边3张图片和左边第1张原始图片的L2距离是一样的。很显然,基于像素比较的相似和感官上以及语义上的相似是不同的。

所以:

Nearest Neighbor分类器在某些特定情况(比如数据维度较低)下,可能是不错的选择。但是在实际的图像分类工作中,很少使用。因为图像都是高维度数据(他们通常包含很多像素),而高维度向量之间的距离通常是反直觉的。下面的图片展示了基于像素的相似和基于感官的相似是有很大不同的:

-------------------------------------------------------------------------------------------------------------------------------------

4、Knn(k近邻分类器)。k个分类中的k值怎么确定?不断对超参数进行微调。具体的方法:

将训练样本平分为3或5或8份(视样本个数而定),将其中一份作为验证样本,其余的作为训练样本。用训练样本对模型训练好了之后,再用验证样本来调整k值,找到k的满意值。

【*】得到k值后,不能用训练集和验证集在对模型进行调整,这会破坏模型的精度;这时候就用测试集仅跑一遍来看准确率。

5、交叉验证。训练集很小的时候,我们的验证数据很少,就要使用交叉验证的方法。具体:比如将训练集平均分成5份,其中4份用来训练,1份用来验证。然后我们循环着取其中4份来训练,其中1份来验证,最后取所有5次验证结果的平均值作为算法验证结果。

6、在验证集上调优,尝试足够多的k值,尝试L1和L2两种范数计算方式。

ps:

  给定向量x=(x1,x2,...xn)  L1范数:向量各个元素绝对值之和  L2范数:向量各个元素的平方求和然后求平方根  Lp范数:向量各个元素绝对值的p次方求和然后求1/p次方  L∞范数:向量各个元素求绝对值,最大那个元素的绝对值
  
时间: 2024-10-10 17:02:58

关于图像分类问题读后感的相关文章

03-20 《构建之法》第1,2,3章读后感

第一章读后感: 看了大概了解软件从一个想法到最终成品的一个过程.软件先是由一个想法引出的,有那个想法,你需要一个工具去做什么,然后根据自己想要的功能大概做一个能实现基本功能的软件,再对客户提出的要求进行完善,实现了功能后对软件进行维护.还有做的软件要符合客户的要求,而不是只根据自己的想法去做,要满足大部分的需要,满足客户的需求,在使用过程中发现有bug对其进行修复. 软件工程在社会发展处于什么地位,发展潜力在未来究竟有多大? 第二章读后感: 看完第二章后知道软件是需要单元测试的,之前对这个没什么

《大道至简》第一,二章读后感

注:我忘记老师要求什么时间之前提交了,之所以发了这么晚是因为我觉得要写读后感的话最好还是把一本书读完了再写读后感比较好.但是直到今天晚上我发现,由于我的变成基础并不扎实,编程的造诣也并不深,所以在这短短几天之内根本不可能读完这本书.当然囫囵吞枣不求甚解倒是没问题,但是要大致读懂意思却是几乎不可能.所以只好写读后感写到第一二章. 第一章标题是编程的精义,讲的是如何用最朴素最大众最傻瓜的方法编写出一个程序.以“愚公移山”的故事贯穿全篇.愚公首先有用户需求,即被两座大山挡住了门.有具体的目标,也就是搬

《代码大全2》读后感czz

经老师推荐,买了一本<代码大全2>,花了近3个月的时间看完了,看完后觉得还有很多值得回味的地方,而且每部分之后作者还推荐了不少经典书籍.所以,作个读书心得.全书的主题是软件构建,关于软件构建问题的方方面面均有涉及,共分7个部分,从软件构建前期准备,到语言层的一些问题,再到代码完善,系统考虑以及软件工艺等等.以下分别进行简单说明. 第一部分是打好基础,本部分主要是软件构建前期的工作,以及对一些基本概念的介绍,具体包括如何选择编程语言和构建实践方法,如何理解软件开发的过程.软件开发本质上说就是工程

咳咳,软工新手读《大道至简》读后感

<大道至简>读后感 本书是周爱民先生把这本<大道至简>表达为"阐述软件工程的思想核心",书中又分为八个章节,接下来我想把我对每个章节的认识分开来介绍. 在第一章节中,周爱民先生将编程归类为公式"程序等于算法加结构",同时周爱民先生也将编程认为是一件简单的劳动工作.一个程序无论多么复杂,都可以将其拆分为无数多个不同的结构,然后用算法把它们编织出来.这就想文中的例子,把愚公移山的工程拆分成多个顺序.分支和循环.文中的观点就是"算法是对一

《程序员读书这件事情》读后感

晚上读了<程序员读书这件事情>这篇博文. 第一,感叹博主的阅读量,借助于信息科技的优势大家的阅读量越来越多,博主是除栗华山(华宇前同事)后见到的第二个阅读牛人! 第二,敬佩博主的文笔和细心勤奋,其中一些书我也读过却没写读后感没总结. 第三,"读书为了什么",也是感悟最深的,解答了自己的困惑. 1,读书像吃饭一样,为精神世界里的自己提供给养. 2,读书可以丰富内心,让我们在同样的生活下过出不一样的自己. 3.读书是润物细无声,在潜移默化间提高自己.

数据之巅读后感

数据之巅读后感 1.内容概述 全书分两个部分,第一部分讲述小数据历史,第二部分讲述大数据的崛起. 第一部分以美国历史为主线,讲述了大数据文化如何形成以及数据治国的理念如何深入人心的宏伟画卷. 其中第一部分主要讲述了,初数时代.内战时代.镀金时代.进步时代.抽样时代 初数时代,讲述了美国利用数据来划分国家权力,从而使国家权力相对共和,而共和的政治又来反哺数据,促进数据的发展. 内战时代,通过数据分析讲述了南北战争的原因以及北方军队充分利用数据来打败南方军队的故事,最后还从数据方面分析了解放黑奴的真

大道至简第二章读后感

 读了大道至简第一章的老愚公的故事,我们知道了勤劳的人总会能够完成所有的困难,最终完成自己的任务,完成自己的目标,愚公移山,看似不能完成,但是与共凭借着子又生孙,孙又生子,活生生的完成了这一个不可能完成的任务,但是在旁人眼里看来,又有一些古板,耗时,毕竟动用了不知道多少代子孙的时间,反而观之第二章的李冰,修建都江堰,也需要“移山”,而且山上又全是石头,要是按照愚公的办法,那得修到什么时候才能完工?但是他发现了最终的方法,用火烧石头,然后浇水,石头就会变得酥脆容易挖走,这就是一种智慧. 从某种情况

呼啸山庄读后感

这本书足足花了四个月的时间才终于读完了,真是不适合我的类型啊== 梗概 故事发生在一个离英国大城市偏远的地方,讲述了呼啸山庄和画眉田庄之间两代人的故事(实际上呼啸山庄上的人们的性格正如这名字一样充满了粗犷的风格,爱得深恨得深:而画眉田庄的里的人物则也如同这名字一般文弱平缓).这种平静枯燥的乡下地方由于山庄老主人恩肖捡来的吉普赛小男孩--本书贯穿始终的角色希斯克利夫而产生了波澜.老恩肖有两个孩子,分别是大儿子亨得利和小女儿凯瑟琳--两个脾气都“呼啸”,而希斯克利夫也不是什么省油的灯.实际上,凯瑟琳

第一个sprint总结和读后感

总结:通过第一个sprint的冲刺,了解了sprint的整个流程,学会了在一个团队里该如何开展一个项目和分配任务.我们的队团在第一个sprint中没有达到我们预期的效果,我们也做出了反省,原因一是我们的知识面不够广泛,原因二是我们的积极性不高.一个团队,需要主动,需要负责的态度,才能更好的合作,效率更高.做项目,代码固然重要,但计划和沟通也非常重要. <构建之法>第八.九.十的读后感 第八章:主要介绍了软件需求的类型.利益相关者:获取用户需求的常用方法和步骤以及竞争性需求分析的框架等.软件团队