利用Kinect将投影变得可直接用手操控

Finally

总算是到了这一天了!假期里算法想不出来,或者被BUG折磨得死去活来的时候,总是YY着什么时候能心情愉快地坐在电脑前写一篇项目总结,今天总算是抽出时间来总结一下这神奇的几个月。

现在回过头来看,上学期退出ACM集训队果然是对的,这次开发学到的东西太多太多,以前在ACM的时候,感觉不会的东西好多啊,真正来自己试着开发个东西,发现不会的东西果然好多。不过要是几个老师知道我上午给新生做完ACM宣讲报告下午就跟教练说退出,他们会是什么心情啊哈哈。

这些是第一次尝试开发,如果ACM是练内功的话,那么练了三年也总该让我拿出来用用了,不然学了三年还是只在个控制台里玩甚是寂寞,自己亲手从无到有创造出一个东西来的感觉, 实在太爽了!

先说一下这次项目印象最深的几个教训:

  1. 功能一旦变得复杂,就一定要在纸上先画一画!

    • 流程图也好,大体思路图也行,甚至随手演算的过程都可以,总之一定要把思路理清楚了,思路不清的后果就是代码越写越乱,最后只能全部推倒重来,事先不画图省下的时间远远比不上最后重写所浪费的时间。
  2. 命名一定要规范
    • 以前刷题的时候,也知道命名规范的重要性,只是没想到会如此重要。之前我的代码风格还算不错,不过一开始写的时候还偷下懒,省掉一两个单词之类,有时心急了还直接用原来的命名方法,用下划线分割单词(Kinect的API里都是用大小写分割单词的),这样写的弊端就是代码也是越来越乱,而且一旦有事中断了几天,回来再看代码就发现看不懂了,于是又简单粗暴推倒重来。所以一定要有一套自己的命名风格,而且不要为了省事少些那一两个单词,敲个长变量名所带来的是代码的高可读性,多耗费的时间远远小于以后推倒重来所浪费的时间!
  3. 不写不必要的注释
    • 到处都是注释,反而大大降低了可读性,一眼看去全是绿的,头都晕了,开发中期我就被自己那么多的注释弄得看见绿代码就想吐,后期只注释主要功能,提高抽象程度,代码反而变得清晰有逻辑。所以那种基本每行都有注释的风格,我并不认同,当然,我说的是代码基本仅供自己一个人看的情况。
  4. 最好进行版本控制
    • 有一次就是,我做了个比较微小的改动,结果怎么调都不对,也已经忘了改动之前是什么状态,简直是有种欲哭无泪的感觉。还有就是进行一个大的改动之后,突然发现之前的那个版本才是对的(哭)。有个版本控制机制的话,这种情况应该能避免很多。
  5. 迭代开发似乎是个不错的办法
    • 之前在知乎上看到一个贴,讲的是新手应该怎样进行开发,提到的一种思路就是进行迭代开发。一开始可能什么都不懂,然后着手做了一部分之后,就对项目有了个大概的轮廓,然后推翻进行新的一轮开发,这时又对未来该怎么做有更清晰的了解,这样不断迭代把项目逐步推向成熟。我是迭代了4次之后出了目前这个基本完成的版本,不过在写的时候没刻意考虑过用这种方法,之所以迭代了4次是因为上面提到的种种原因导致推翻重来(捂脸),不过现在看来这种方法好像真的很合理。

项目介绍

好了,现在正式开始介绍一下项目本身。

背景

这个项目原本是用来参加2016年的微软创新杯,但是在上一周,也就是3月20号的四川省区域赛中未获奖,只能直接参战中国区半决赛。这次区域赛失败的原因有很多,虽然作品已经完成得差不多了,但是没能优秀地将其展示出来,在现成演示的时候还遇到了一个巨大失误,中途才发现,所以没等通知结果就知道多半是悲剧了。第一次参加这类开发类的比赛,就当交学费好了,不过这次区域赛给我的感觉是,微软还是想找几个最有商业前途的作品,这个项目炫是很炫酷,但是实际意义不大的样子,所以感觉中国区半决赛希望也不大。不过无所谓啦,我自己玩得嗨就行了,微软欣不欣赏那是另外一回事,说不定哪天我就搭建出个钢铁侠那样的实验室不是?啊哈哈,最近也顺便把这个项目报成了大学生创新创业训练计划,成功申请到国家级,算是可以安慰一下。

目标

简单来说,此项目就是要把投影仪投出的投影变得可以直接用裸手操控,就好像投影变成了一块大型的平板电脑,投影可以是在投影幕上、墙上甚至桌子上,任何光滑且不是反射材质的平面都行,至于为什么不能是反射材质,等下会有介绍。刚开始是计划达到能用手指直接在投影上写字的精度,后来发现很难做到,瓶颈在于指尖的识别算法不够精确,这是我自己构思的一个简单算法,未来应该会用更高级更精确的算法来替代。

开发环境

Kinect for Windows V2 + Kinect SDK 2.0 + OpenCV 3.0 + Visual Studio Community 2015

Kinect

项目里利用到的一个非常重要的东西就是Kinect for Windows V2,一款微软的动作感应器,可以算成是一类现实增强设备,发布时主要是搭配XBox来玩体感游戏,但是这么厉害的一个东西只能用来玩游戏实在太可惜,所以微软在前几天发布了它的Windows版本,让它能够在PC上进行开发。就是下面这么个东西:

原理

原理其实并不算难,主要可以参考下面这张图。

  1. 从Kinect获取的整个画面中识别出投影

    • 因为操作要在投影上进行,所以需要先识别出投影是画面中的哪一块,这里用的算法比较简单,先投一副纯色图像出来,然后利用投影区RGB值近似的原理,找出投影的左下角和右上角之后就确定了投影的区域,这样做的缺点是投影区只能是矩形而且不能太歪。其实有时间的话,可以试一下利用9*9的矩阵来找出所有属于边缘的点,然后渲染所有边缘点,也就找出了整个边缘,这样可以适应任意形状。
  2. 从Kinect获取的整个画面中识别出指尖
    • 因为用手指来调用鼠标进行操作,而接触屏幕的地方又是手指的指尖,所以需要识别出指尖。

    一开始我是基于KinectBodyIndex这个数据源来寻找指尖,首先定位出腕关节在哪,然后根据腕关节的位置向上寻找复合指尖特征的点,可以说效果很好,识别非常精确和稳定,而且能同时识别出5个指尖,这部分是我在假期里完成的,本来以为来到学校后将程序根据投影仪调整下就差不多可以用了,然而到校测试后才发现一个致命的问题,就是当手臂贴近墙壁时,整个手臂的BodyIndex数据都丢失了。因为微软似乎认为,如果某个点要是属于人体的话,那么它和背景的深度差至少要有二三十厘米左右(正好是人体的厚度)。这个问题让我失眠了几晚上...不过也是在失眠的时候想出了现在用的解决方法。ds

    现在用的方法是基于`Depth`数据来找指尖的,简单来说就是根据指尖的特点找出所有吻合的点,然后取 位置最高的那个(因为操作的时候用的基本都是一根手指),这样做可以减少很多工作量,因为很多非法点都直接被略去了。
  3. 将手指的位置映射成鼠标的位置
    • 因为想达到手指指哪,鼠标就点击哪的效果,所以必须把手指在投影上的位置,映射成鼠标在电脑里相应的位置,这个其实简单推导一下就可以得出。

      黑色框为投影屏幕,大写的X和Y代表的是屏幕的宽和高,红色框为电脑屏幕,假设人的手指在的位置,如果想将鼠标也映射到同样的位置,那么就有  的等比关系成立。这里投影屏幕的宽和高在上面第一步中获取,而电脑屏幕的宽和高,实际上是不需要考虑分辨率的,因为在鼠标的坐标系下,电脑的宽和高都被分成了65535个单位,所以宽和高可以视为65535。根据这些,就可以算出的值来。

  4. 根据手指到屏幕的距离,判断点击和非点击两种状态
    • Kinect是带有深度摄像头的,也就是说它能够知道画面中的每一点到它的距离。似乎是利用三组红外发射器来实现,所以也就要求物体不能是反射材质,不然会获取不到距离。因为能够知道屏幕的距离,也能知道手指的距离,所以如果手指距离屏幕足够近,那么就可以判断为点击。但是,屏幕有可能不是绝对垂直的,Kinect也有摆歪的可能性,同时深度数据也不是100%精确,所以在计算屏幕距离时,需要考虑一个容错值,在这个范围内都被视为屏幕,在这里我设置的值是10cm,虽然看上去很多,但是实际效果还不错。但是,这也带来一个很严重的问题,就是手指在离屏幕的位置小于10cm的时候,也被视为了屏幕,这时候指尖就丢失了,手指变成了手指中部(因为手指不是完全平行于墙面的,而是有一定角度,所以指根的地方距离屏幕更远),这就会产生很不稳定的现象,至今没有解决。

上面就是核心的功能,除此之外,还要加入一些鼠标的抖动消除、误差消除的处理,同时我还调用了Kinect的手势识别功能,直接用手势来完成撤销的操作。这段时间忙着找实习,以后有时间的话,应该会优化指尖识别的算法,同时加入更多的手势来调用操作。

效果展示

(博客园的MarkDown居然不可以插视频,差评)

演示视频在这里

直接在墙上玩割绳子:

用手在墙上书写(外加用手势来调用撤销):

直接裸手操控PPT:

END

这个项目差不多就这么多啦,剩下的只是优化下各个功能,或者加点新东西进去。从假期里就构思了一个比较有意思的小程序,等这段时间忙结束,应该就会把它敲出来。真是越来越好玩了!

时间: 2024-10-11 01:00:55

利用Kinect将投影变得可直接用手操控的相关文章

利用filter实现网站变灰

今年是一个特殊的清明节,举国哀悼,很多网站也都实现了变灰.很多网站包括主页和内容也都已经变成了灰色,比如百度.B 站.爱奇艺.CSDN 等等.大家可以看到全站的内容都变成灰色了,包括按钮.图片等等.这时候我们可能会好奇这是怎么做到的呢?有人会以为所有的内容都统一换了一个 CSS 样式,图片也全换成灰色的了,按钮等样式也统一换成了灰色样式.但你想想这个成本也太高了,而且万一某个控件忘记加灰色样式了岂不是太突兀了. 其实,解决方案很简单,只需要几行代码就能搞定了.我们只要将下面这行 CSS 样式,加

Kinect开发学习笔记之(一)Kinect介绍和应用

Kinect开发学习笔记之(一)Kinect介绍和应用 [email protected] http://blog.csdn.net/zouxy09 一.Kinect简单介绍 Kinectfor Xbox 360,简称 Kinect,是由微软开发,应用于Xbox 360 主机的周边设备.它让玩家不须要手持或踩踏控制器,而是使用语音指令或手势来操作 Xbox360 的系统界面.它也能捕捉玩家全身上下的动作,用身体来进行游戏,带给玩家"免控制器的游戏与娱乐体验".其在2010年11月4日于

Kinect的学习笔记发展(一)Kinect引进和应用

Kinect的学习笔记发展(一)Kinect引进和应用 [email protected] http://blog.csdn.net/zouxy09 一.Kinect简单介绍 Kinectfor Xbox 360,简称 Kinect,是由微软开发,应用于Xbox 360 主机的周边设备.它让玩家不须要手持或踩踏控制器,而是使用语音指令或手势来操作 Xbox360 的系统界面.它也能捕捉玩家全身上下的动作,用身体来进行游戏,带给玩家"免控制器的游戏与娱乐体验". 其在2010年11月4日

面向对象设计——协变与逆变

在面向对象的设计中,我们一直追求一种结果,就是良好的复用性,基于这个理念,面向对象的设计中加入了协变与逆变(Covariance and Contravariance)两个概念,我们先来简单了解一下这两个概念. 简介: 协变:由子类向父类方向转变, 用out关键字标识 逆变:由父类向子类方向转变, 用in关键字 举例:Animal是父类,Dog是从Animal继承的子类:如果一个对象的类型是Dog,那么他必然是Animal.有一个获取宠物的方法要接受Dog参数,那么另一个接受Animal参数的方

【Kinect开发笔记之(一)】初识Kinect

一.Kinect简介 Kinect是微软在2010年6月14日对XBOX360体感周边外设正式发布的名字.它是一种3D体感摄影机(开发代号"Project Natal"),同时它导入了即时动态捕捉.影像辨识.麦克风输入.语音辨识.社群互动等功能. 二.Kinect分类 Kinect for Xbox 360:该版本设计之初就是为了Xbox 360定制的,并未考虑其他的平台.从微软授权角度而言,它无法用于商业开发. Kinect for Windows : 固件上做了升级,支持"

3D高科技投影 麦可「复活登台」幕后

美国告示牌音乐颁奖典礼,日前在赌城盛大举行,主办单位利用高科技投影技术,让麦可杰克森「复活」登台表演,3D全像投影,加上影片与真人舞群无缝接轨,高科技让过世的大明星彷佛活了过来. 流行乐天王麦可杰克森死而复生,过世将近5年的他,又现身在今年美国告示牌音乐颁奖典礼上,金光闪闪现身舞台中央,麦可杰克森回来了,再现招牌的动感舞步,流露巨星风采,主办单位利用3D全像摄影技术,秘密制作了半年多,把他带回到世人眼前. 特效专家:「观众在告示牌典礼上看到的是,麦可的头部数字影像,连接到一名演员身上,我们实时捕

kinect的openni总结

Kinect到手快一个月了,期间查阅了很多资料,见识了很多牛人,他们的工作如此漂亮,让我大开眼界.现将自己所掌握的资料汇总于此,以便随时查阅. 首先是csdn上小斤童鞋的系列文章: Kinect开发教程一:OpenNI的安装与开发环境配置 Kinect开发教程二:OpenNI读取深度图像与彩色图像并显示 Kinect开发教程三:利用OpenNI进行手势识别 Kinect开发教程四:用Kinect控制鼠标玩水果忍者PC版 其次是mp77技术交流频道上的系列文章,基于openNI的<user gui

Kinect 人机交互开发实践

Kinect for Windows SDK 骨骼追踪 —— 对在Kinect视野范围内移动的一个或两个人进行骨骼追踪,可追踪到人体的20个节点 深度摄像头 —— 通过深度传感器获取到视野内的环境三维位置信息 (深度图像 —— 每个像素为距离Kinect传感器的距离) —— 利用Kinect红外发射器发出的红外线对空间进行编码,无论环境光线如何都不会影响测量结果 音频处理 —— 与 Microsoft Speech 语音识别API集成 Kinect 彩色和红外图像数据的处理 彩色图像质量 ——

基于Oculus DK2和Kinect的3D体感游戏开发经验------关于上手Oculus DK2

在假期我和我的团队花了大约三个星期的时间完成了一款简单的3D体感游戏,用Oculus DK2(一个像头盔一样的东西,里面有屏幕)带来沉浸式的3D体验,利用Kinect来进行骨架追踪以便对玩家的动作做出反应,我的工作涉及Oculus这一部分下面简单的谈谈遇到的一些初期的小问题. 1.拿到设备后按说明安装好了设备却发现设备没反应? 首先你需要到官网注册开发者账号然后如果你是在Windows环境下的话就下载如下的文件安装即可,剩余的不安也行,浪费流量. 2.上面的东西安装成功后,再连接设备,点击隐藏图