Support Vector Machines(SVM)如何根据虹膜分类评估性格类别?

虹膜是眼睛的一部分,眼睛通过它控制入光量,几个世纪以来一直是心理学关心的主题。从生理学、文学到诗歌,眼睛被用于神经语言程序设计(NLP),其关注人体的相互作用,虹膜运动和位移。基本上,NLP专注于评估人类行为和心理活动。最近,机器学习(ML)也进入了与心理学相关的领域。

  本文源自马来西亚Universiti Teknologi的计算机科学学者的一项研究,他们使用ML进行虹膜位置分类。他们应用SVM的特定ML算法对虹膜位置进行分类,然后将算法结果与根据视觉、听觉和动觉(VAK)学习标准索引的人格特征相匹配。

  使用神经语言程序设计

  在心理学中,有许多理论和方法可以评估人类行为或个性,具体而言,这取决于许多因素,如年龄、情绪平衡和身体健康等。在研究中选择NLP的原因是它在正确建立行为因素方面的有效性。NLP擅长分析个人的学习风格分析行为。它依赖于三个关键因素-神经学、语言和编程。神经学部分指的是人体的实际心理系统,而语言和程序设计部分分别包括与其他人的交流方面和对世界的感知。简单来说,它是语言对身心,身体和行为的影响。

  NLP与另一种称为视觉,听觉和动觉(VAK)理论的人格理论相结合,该理论在心理学得到了广泛的应用。事实证明,VAK能够最有效地展示个人的学习风格。作为该研究的一部分,眼睛的虹膜位置作为预测人类行为的视觉线索。此外,这些虹膜图像将是使用SVM进行图像分类的关键。

  用SVM分析

  眼睛图像,特别是虹膜图像,形成了本研究的数据。在这些图像上使用SVM来分类虹膜位置。下图显示了研究中遵循的研究方法:

  从上面的图片可以看出,一旦从用户收集数据(眼睛的图像),就使用图形用户界面(GUI)对它们进行图像预处理。为此,图像要求9,000像素,以实现SVM分类的最佳性能。为了从图像中提取特征,使用图像处理中的直方图均衡。此外,Sobel边缘检测用于检测眼睛边缘以及形态过滤和二值化。所有这些功能都保存为文本文件,并设置为进行培训和测试。MATLAB是用于实现该算法的软件环境,其内核是SVM中的Standard Gaussian Kernal(SGK,在MATLAB中称为径向基函数)。

  算法的准确性

  对该研究中五个标准虹膜位置进行了测试和培训:

  1.左上

  2.右上

  3.中间

  4.中偏右

  5.中偏左

  样本数据是215个眼睛图像。当使用SVM检查样本的准确性时,发现在检测这些位置时大约80%准确(用于训练),误差约为20%(在测试中)。这个因素将有助于快速匹配VAK理论(图中提到)的行为。选择径向基函数的逻辑是实现更高的精度。

  结论

  这项研究只是机器学习技术中的沧海一粟。分类本身有很多方法,例如反向传播,k-最近邻和感知器等。这方面的进展是巨大的。在早些年,虹膜检测仅用于安全系统中以进行身份验证。但在如今,它在多方面得到了应用,ML和人工智能应用依赖于虹膜和其他相关的面部特征来实现自动化。最终,它将具有实际实施功能的应用生成,为ML提供了丰富的成果。

原文地址:http://blog.51cto.com/13957185/2286353

时间: 2024-08-30 06:08:25

Support Vector Machines(SVM)如何根据虹膜分类评估性格类别?的相关文章

机器学习 第七讲:Support Vector Machines 1

引言 这一讲及接下来的几讲,我们要介绍supervised learning 算法中最好的算法之一:Support Vector Machines (SVM,支持向量机).为了介绍支持向量机,我们先讨论"边界"的概念,接下来,我们将讨论优化的边界分类器,并将引出拉格朗日数乘法.我们还会给出 kernel function 的概念,利用 kernel function,可以有效地处理高维(甚至无限维数)的特征向量,最后,我们会介绍SMO算法,该算法说明了如何高效地实现SVM. Margi

支持向量机(Support Vector Machine / SVM)

支持向量机(Support Vector Machines, SVM):是一种机器学习算法. 支持向量(Support Vector)就是离分隔超平面最近的那些点.机(Machine)就是表示一种算法,而不是表示机器. 基于训练集样本在空间中找到一个划分超平面,将不同类别的样本分开. SVM 工作原理 在样本空间中,划分超平面可通过如下线性方程来描述: 原文地址:https://www.cnblogs.com/wanglinjie/p/11729786.html

初译 Support Vector Machines:A Simple Tutorial(一)

从本次开始我将开始尝试着逐章翻译一下 Alexey Nefedov的<Support Vector Machines:A Simple Tutorial>这本教材,这可是我们导师极力推荐的SVM教材,看了好久一直感觉一脸懵逼,索性开坑翻译一下吧,也当是加深理解,毕竟我也是一知半解,如果翻译的有不对的地方还望大佬们斧正,欢迎提意见,欢迎讨论. 嗯,就是这样. (一)Introduction 在本章节中将会介绍一些用于定义支持向量机(SVM)的基础的概念,这些概念对于理解SVM至关重要,假定读者了

Machine Learning - XII. Support Vector Machines (Week 7)

http://blog.csdn.net/pipisorry/article/details/44522881 机器学习Machine Learning - Andrew NG courses学习笔记 Support Vector Machines支持向量机 {SVM sometimes gives a cleaner and more powerful way of learning complex nonlinear functions} Optimization Objective优化目标

(原创)Stanford Machine Learning (by Andrew NG) --- (week 7) Support Vector Machines

本栏目内容来源于Andrew NG老师讲解的SVM部分,包括SVM的优化目标.最大判定边界.核函数.SVM使用方法.多分类问题等,Machine learning课程地址为:https://www.coursera.org/course/ml 大家对于支持向量机(SVM)可能会比较熟悉,是个强大且流行的算法,有时能解决一些复杂的非线性问题.我之前用过它的工具包libsvm来做情感分析的研究,感觉效果还不错.NG在进行SVM的讲解时也同样建议我们使用此类的工具来运用SVM. (一)优化目标(Opt

[机器学习] Coursera笔记 - Support Vector Machines

序言 机器学习栏目记录我在学习Machine Learning过程的一些心得笔记,包括在线课程或Tutorial的学习笔记,论文资料的阅读笔记,算法代码的调试心得,前沿理论的思考等等,针对不同的内容会开设不同的专栏系列. 机器学习是一个令人激动令人着迷的研究领域,既有美妙的理论公式,又有实用的工程技术,在不断学习和应用机器学习算法的过程中,我愈发的被这个领域所吸引,只恨自己没有早点接触到这个神奇伟大的领域!不过我也觉得自己非常幸运,生活在这个机器学习技术发展如火如荼的时代,并且做着与之相关的工作

scikit-learn(工程中用的相对较多的模型介绍):1.4. Support Vector Machines

参考:http://scikit-learn.org/stable/modules/svm.html 在实际项目中,我们真的很少用到那些简单的模型,比如LR.kNN.NB等,虽然经典,但在工程中确实不实用. 今天我们关注在工程中用的相对较多的SVM. SVM功能不少:Support vector machines (SVMs) are a set of supervised learning methods used for classification, regression and outl

Machine Learning in Action -- Support Vector Machines

虽然SVM本身算法理论,水比较深,很难懂 但是基本原理却非常直观易懂,就是找到与训练集中支持向量有最大间隔的超平面 形式化的描述: 其中需要满足m个约束条件,m为数据集大小,即数据集中的每个数据点function margin都是>=1,因为之前假设所有支持向量,即离超平面最近的点,的function margin为1 对于这种有约束条件的最优化问题,用拉格朗日定理,于是得到如下的形式, 现在我们的目的就是求出最优化的m个拉格朗日算子,因为通过他们我们可以间接的算出w和b,从而得到最优超平面 考

斯坦福CS229机器学习课程笔记五:支持向量机 Support Vector Machines

SVM被许多人认为是有监督学习中最好的算法,去年的这个时候我就在尝试学习.不过,面对长长的公式和拗口的中文翻译最终放弃了.时隔一年,看到Andrew讲解SVM,总算对它有了较为完整的认识,总体思路是这样的:1.介绍间隔的概念并重新定义符号:2.分别介绍functional margins与geometric margins:3.由此引出最大间隔分类器,同时将最优化问题转化为凸函数的优化问题:4.补充了拉格朗日对偶性的知识:5.利用拉格朗日对偶性,推导最大间隔分类器最优化的对偶问题,即SVM的最优