Kinect for Windows SDK v2.0 开发笔记 (十七) 深度帧3D



(转载请注明出处)

使用SDK: Kinect for Windows SDK v2.0 1409

这节算是补充节吧,以3D方式显示深度帧,SDK更新的则在后面的章节说明.

之前想错了,以为每帧显示所谓的点云,GPU负担很大,

背景每帧都要传送 500 * 400 * 3 * 4 , 才2M的数据,之前估计错了。

3D接口依然是D3D11,这次简单多了,顺带复习一下吧

要点:

0. 初始化.. 
仅仅需要:

IKinectSensor(使用
GetDefaultKinectSensor)

IDepthFrameReader(使用IKinectSensor::get_DepthFrameSource 与
IDepthFrameSource::OpenReader)

ICoordinateMapper(使用 IKinectSensor::get_CoordinateMapper)

1. 轮询模式, 因为基于等待垂直同步

使用IDepthFrameReader::AcquireLatestFrame进行轮询

2. 数据获取

使用IDepthFrame所带的一抹多方法进行数据获取

3. 坐标映射

使用ICoordinateMapper::MapDepthFrameToCameraSpace,将深度数据映射到相机坐标空间。

4. 渲染规则

仅仅是渲染点,所以使用简单的VS-PS模式即可,VS计算坐标,PS计算颜色。

可视化算法,不同与2D的算法,这次,我们将深度值的0.4~4.5映射到波长的400~700(大致即可)

也就是彩虹的颜色啦

所以,PS的代码就是这样

// PS 输入 <-> VS 输出
struct PSInput
{
    float4 position : SV_POSITION;
    float4 raw_position: POSITION;
};

// 光谱颜色
float4 spectral_color(float l){
    float t;
    float4 color = float4(0, 0, 0, 1);
    // R
    if ((l >= 400.0) && (l < 410.0)) { t = (l - 400.0) / (410.0 - 400.0); color.x = +(0.33*t) - (0.20*t*t); }
    else if ((l >= 410.0) && (l < 475.0)) { t = (l - 410.0) / (475.0 - 410.0); color.x = 0.14 - (0.13*t*t); }
    else if ((l >= 545.0) && (l < 595.0)) { t = (l - 545.0) / (595.0 - 545.0); color.x = +(1.98*t) - (t*t); }
    else if ((l >= 595.0) && (l < 650.0)) { t = (l - 595.0) / (650.0 - 595.0); color.x = 0.98 + (0.06*t) - (0.40*t*t); }
    else if ((l >= 650.0) && (l < 700.0)) { t = (l - 650.0) / (700.0 - 650.0); color.x = 0.65 - (0.84*t) + (0.20*t*t); }
    // G
    if ((l >= 415.0) && (l < 475.0)) { t = (l - 415.0) / (475.0 - 415.0); color.y = +(0.80*t*t); }
    else if ((l >= 475.0) && (l < 590.0)) { t = (l - 475.0) / (590.0 - 475.0); color.y = 0.8 + (0.76*t) - (0.80*t*t); }
    else if ((l >= 585.0) && (l < 639.0)) { t = (l - 585.0) / (639.0 - 585.0); color.y = 0.84 - (0.84*t); }
    // B
    if ((l >= 400.0) && (l < 475.0)) { t = (l - 400.0) / (475.0 - 400.0); color.y = +(2.20*t) - (1.50*t*t); }
    else if ((l >= 475.0) && (l < 560.0)) { t = (l - 475.0) / (560.0 - 475.0); color.y = 0.7 - (t)+(0.30*t*t); }
    return color;
}

// Shader 入口
float4 main(PSInput input) : SV_TARGET{
    float4 judgment = float4(0.4, 4.5, 400, 700);
    if ((input.raw_position.z >= judgment.x) && (input.raw_position.z <= judgment.y)){
        // 将 0.4~4.5映射到 400~700
        // 73.1707 = (judgment.w-judgment.z)*(judgment.y-judgment.x)
        return spectral_color(judgment.w - (input.raw_position.z - judgment.x) * 73.1707f) * 2.f;
    }
    return float4(0, 0, 0, 1);
}

最后乘上2是为了提高亮度.

VS就不贴了。

每次询问道深度数据就映射到相机坐标空间,再送到GPU。

每帧渲染这些顶点即可,可谓简单。

这就是成品了:

代码下载地址:点击这里

对了,上传后才发现,这次不需要复制文件,所以自定义生成步骤那里是多余的

时间: 2024-10-15 17:33:51

Kinect for Windows SDK v2.0 开发笔记 (十七) 深度帧3D的相关文章

Kinect for Windows SDK v2.0 开发笔记 (十一) 高清面部帧(2) 面部特征对齐

(转载请注明出处) 使用SDK: Kinect for Windows SDK v2.0 public preview1408 根据前一节的说明,这节就是关于面部特征对齐的. 接口为IFaceAlignment,因为SDK还在Beta中,提供官网的连接可能会失效,所以不提供了. 需要可以到微软官方查询.目前,面部特征对齐主要可以干: 0. 获取面部外框 -- 面部帧也能.但是经测试,精度高得多,抖动大概在几像素内 1. 获取头部旋转中心 --结果是一个相机空间坐标,大致位置就是颈部中心 2. 获

Kinect for Windows SDK v2.0 开发笔记 (十五) 手势帧

 (转载请注明出处) 使用SDK: Kinect for Windows SDK v2.0 public preview1409 同前面,因为SDK未完成,不附上函数/方法/接口的超链接. 这次终于是新的东西了,是"手势帧",不过原名是"可视化手势构建器"(Visual Gesture Builder)帧,是 SDK 2.0自带的手势解决方案,不过,如果您觉得微软写得不可靠,甚至垃圾,您可以尝试自己写个,笔者在 提供的范例中,写了个简单的样子(几十行而已,不要期

Kinect for Windows SDK v2.0 开发笔记 (十三) 高清面部帧(4) 面部模型构建器

 (转载请注明出处) 使用SDK: Kinect for Windows SDK v2.0 public preview1409 同前面,因为SDK未完成,不附上函数/方法/接口的超链接. 这次让我们让面部捕捉更加稳定/精确吧! 自从一直8月有了高清面部帧的例子后,觉得IFaceModel::GetFaceShapeDeformations它不干正事,一直返回0.0f的数据. 与其他开发者简单交流后,发现了问题的根本所在,需要面部模型构建器(IFaceModelBuilder). 好了,那么

Kinect for Windows SDK v2.0 开发笔记 (十六) SDK2.0正式发布 与 自带工具

(转载请注明出处) 使用SDK: Kinect for Windows SDK v2.0 1409 来了,微软于10月22日正式发布了SDK v2.0,前兆是发现了API文档正常了... 话说为什么是1409而不是1410 于是从这节开始,开始附上API的超链接.正式版的体积也是可观,整整(比7月版)大了一倍 这节说说自带的软件,本打算录下来,但是太懒了 先附上微软自己的地址,Part1,Part2,这是手势的,虽然是使用C#,不过工具使用是完全一样的. 先看看SDK中自带的工具: 0. Kin

Kinect for Windows SDK v2.0 开发笔记 博客学习网址,Mark!!!

http://blog.csdn.net/u014365862?viewmode=contentshttp://blog.csdn.net/dustpg/article/category/2408183

Kinect for Windows SDK 2.0新特性

这些新特性包括, 1,改善的骨骼,手,关节方位------具有跟踪6个人全骨骼,每个人25个关节点(新增加手的中指指尖,拇指和shoulder center)的能力,以及对软组织连接和身体定位的改善. 2,支持新的开发环境------支持更快,高效,高品质的跨平台开发,让开发者使用已知的工具在Windows store 开发产品. 3,powerful tooling-----有了记录和playback 功能,让开发者可以摆脱必须有Kinect sensor的束缚. 4,进阶的脸部跟踪功能---

Kinect 开发 &mdash;&mdash; Kinect for windows SDK

开发 -- 基本的SDK和Windows 编程技巧(彩色图像视频流,深度图像视频流的采集,骨骼跟踪,音频处理,语音识别API) 深度数据,就是Kinect的精髓和灵魂,很多问题都转换为深度图像的模式识别问题 AForge.NET 是一套C#编写的Framework,提供计算机视觉,机器学习 www.aforgenet.com 图像处理需要消耗大量的计算资源,使用C#这类托管语言并不明智,应多使用OpenCV 应用层API详解 NUI API Kinect Audio DMO :提供束波成形和音源

VS2008下 使用C#做windows mobile 6.0开发 使用sqlite数据库

我使用的VS2008英文版的,不喜欢用中文版的. 现在用C#做相关开发,用到sqlite数据库. 网上找了很多,真正的教程特别少,都是贴的一堆垃圾代码.要么是无法配置通过的,错误一大堆,哎. 最后还是自己想办法解决了. 1.下载sqlite的运行库,首先网上的教程是让我们去http://system.data.sqlite.org/index.html/doc/trunk/www/downloads.wiki下载,但是页面上那么多,我们该选择哪个呢?   网页翻到最下面的  Legacy Ver

OpenCV、PCL;Xtion、kinect;OpenNI、kinect for windows SDK比较

一.对比介绍: 1. OpenCV:开源跨平台,OpenCV于1999年由Intel建立,如今由Willow Garage提供支持. 2. OpenNI:OpenNI组织创建于2010年11月.主要成员之一是PrimeSense公司(以色列一家公司,被苹果收购(2013年11月25),Kinect1核心芯片,华    硕Xtion).其他成员还有开发ROS的机器人公司Willow Garage,以及游戏公司Side-Kick.(因此OpenNI完全支持华硕,而不完全支持kinect2) 3. P