cocos2dx深度检测与Zorder

cocos2dx里面有两个渲染队列,RenderQueue和TransparentRenderQueue。我们可以从Renderer::render()的代码看到:

void Renderer::render()
{
    //Uncomment this once everything is rendered by new renderer
    //glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);

    //TODO: setup camera or MVP
    _isRendering = true;

    if (_glViewAssigned)
    {
        //Process render commands
        //1. Sort render commands based on ID
        for (auto &renderqueue : _renderGroups)
        {
            renderqueue.sort();
        }
        visitRenderQueue(_renderGroups[0]);
        flush();

        //Process render commands
        //draw transparent objects here, do not batch for transparent objects
        if (0 < _transparentRenderGroups.size())
        {
            _transparentRenderGroups.sort();
            glEnable(GL_DEPTH_TEST);
            visitTransparentRenderQueue(_transparentRenderGroups);
            glDisable(GL_DEPTH_TEST);
        }
    }
    clean();
    _isRendering = false;
}

先绘制的是RenderQueue,没有启用深度检测,之后绘制的TransparentRenderQueue才会启用深度检测。

一般情况下我们使用的是RenderQueue,它有如下性质:

1. RenderQueue里面的东西完全是按Zorder来决定渲染的先后顺序的,Zorder越小越靠前。

2. 若Zorder相等,则按chlid队列中的顺序决定,先加入到队列的靠前。

3. 可以使用glBlendFunc做颜色混合以及使用2D shader(因为颜色混合需要禁用深度缓存或者把深度缓存设为只读)

若要启用深度检测,我们则需要把绘制物体放入TransparentRenderQueue中,方法就是设置onDraw回调的时候,设置command的tansparent为ture,如:

_customCommand.init(1);
_customCommand.func = CC_CALLBACK_0(CCGSpell::onDraw, this, transform, flags);
_customCommand.setTransparent(true);
renderer->addCommand(&_customCommand);

若要将Sprite放入TransparentRenderQueue,则要像上面那样修改Sprite::draw(),或者在子类中override它。

由于TransparentRenderQueue无法使用颜色混合(虽然修改Render模块可以做到,但一般情况下最好是不要修改cocos2dx的代码),我们主要使用的还是RenderQueue。

只是使用RenderQueue绘制3D场景的时候经常会遇到如下问题,先贴代码:

auto marisa = CCGSprite::create("textures/marisa.png");
marisa->setAnchorPoint(Vec2(0.5, 0));
marisa->setPosition3D(Vec3(origin.x, origin.y - 200, 0));
addChild(marisa, 0);

auto mare = CCGSprite::create("textures/mare.png");
mare->setAnchorPoint(Vec2(0.5, 0));
mare->setPosition3D(Vec3(origin.x, origin.y - 200, -1000));
addChild(mare, 0);

auto spr3D = Sprite3D::create("Sprite3DTest/boss1.obj");
spr3D->setScale(20.f);
spr3D->setTexture("Sprite3DTest/boss.png");
spr3D->setPosition3D(Vec3(origin.x, origin.y, -500));
spr3D->runAction(RepeatForever::create(RotateBy::create(3, 360)));
addChild(spr3D);

auto ground = CCGSprite::create("textures/grassHR.jpg");
ground->setPosition3D(Vec3(origin.x, origin.y - 200, 0));
ground->setRotation3D(Vec3(-90, 0, 0));
addChild(ground, 0);

场景中除动画人物外有4个精灵,其中有一个3D精灵spr3D,以及一个绕x轴旋转90度的ground。若按上面的代码会得到如下效果:

与xy平面平行部分都OK,但是与xy平面垂直的ground却压在所有精灵上面,这就是没有深度检测造成的。

说到这里就不得不说下Zorder与positionZ的关系。

在调用setPosition3D,setPositionZ的时候,其实是做了两件事:

1. 根据positionZ设置transform,也就是实际渲染在场景中的位置。

2. 用positionZ设置GlobalZOrder的值,而GlobalZOrder则决定了渲染顺序。

那么上面问题的原因就是ground的Zorder最大(依次是0, -1000, -500, 0),而且addchild是在Zorder同样大的marisa之后。

因此是最后渲染出来的。

那么,如果我们不想移动ground的位置,又想把ground移到最后,那么单独设置一下ground的Zorder便可:

auto ground = CCGSprite::create("textures/grassHR.jpg");
ground->setPosition3D(Vec3(origin.x, origin.y - 200, 0));
ground->setRotation3D(Vec3(-90, 0, 0));
ground->setGlobalZOrder(-2000);
addChild(ground, 0);

修改后的效果如下:

而对于GlobalZOrder和LocalZOrder的区别是,GlobalZOrder改变的是物体在整个Scene中的渲染顺序,而LocalZOrder改变的只是物体在其父节点下的渲染顺序。

由于本例的父节点就是Scene,因此GlobalZOrder和LocalZOrder的效果是相同的。

时间: 2024-10-21 06:44:53

cocos2dx深度检测与Zorder的相关文章

JavaScript的最大函数参数长度和最大栈深度检测

也许一般代码不会触及最大参数长度和最大栈深度,但某些特殊场合,检测这两个参数还是有必要的 例如:用递归计算斐波那契数列的第n个值,不了解最大栈深度,难免显得肤浅 又例如:将一串charCode转成String,不了解最大参数长度,采用字符串拼接的方式,效率提不上,特别是在串较长的情况下 function getMaximumSupportedArgumentsLength(){ var args={length:0}; function noop(){} function test(n){ ar

Unity中Mesh分解与边缘高亮加上深度检测

一个比较简单的需求,不过遇到些坑,记录下. 房间有多个模型,每个模型可能多个SubMesh,点击后,需要能具体到是那个SubMesh,并且在这个SubMesh上显示边缘高光,以及能个性这单个SubMesh对应的Material.如一个桌子的Mesh,其实有二个材质,分别对应二个SubMesh,一个桌面和一个桌脚,点击桌面后,只有这个桌面高光,而不是整个桌子,并且能单独更换这个桌面的Material. 我们知道Unity中,Mesh和Ogre一样,也是可以有多个SubMesh,每个SubMesh有

Deep Protein Methylation Profiling by Combined Chemical and Immunoaffinity Approaches Reveals Novel PRMT1 Targets (结合层析法和免疫沉淀法的蛋白甲基化的深度检测技术发现了PRMT1新的靶标蛋白)

题目:Deep Protein Methylation Profiling by Combined Chemical and Immunoaffinity Approaches Reveals Novel PRMT1 Targets (结合层析法和免疫沉淀法的蛋白甲基化的深度检测技术发现了PRMT1新的靶标蛋白) 期刊名:Molecular & Cellular Proteomics (MCP) 发表日期:2019.11.1 IF: 4.828 DOI:10.1074/mcp.RA119.001

DPI (Deep Packet Inspection) 深度包检测技术

详解DPI与网络回溯分析技术 随着网络通讯技术进步与发展,网络通讯已跨入大数据时代,如何监控各类业务系统的通讯数据在大数据流量中传输质量,以及针对海量的网络通讯数据的范畴中存在少量的恶意流量的检测,避免恶意通讯对主机.网络设备的root权限的安全威胁,和通讯内容的窃取.是网络管理必须面对的一个难题. 有攻击的矛,自有防御的盾,这是自然发展的规律.针对大数据的来临,传统的实时检测与防御已不能胜任对海量数据中存在细微异常的甄别.为此,对原始通讯数据的实时备份逐渐彰显出其必要性,而基于时间窗口的回溯分

深度包检测(DPI)详细介绍

目录 简介 背景 流量识别 常用功能 具体功能 做法 特征识别 架构举例 部署方式 串接方式 并接方式 存在问题 检测引擎举例 参考文献 简介 DPI(Deep Packet Inspection)深度包检测技术是在传统IP数据包检测技术(OSI L2-L4之间包含的数据包元素的检测分析)之上增加了对应用层数据的应用协议识别,数据包内容检测与深度解码. 既可以检测2~4层,又可以检测应用层. 背景 安全问题.流量识别.大数据(海量数据挖掘),推动网络识别技术的发展 流量识别 指将网络中的数据流识

cocos2dx clippingNode的实现原理

clippingNode是利用opengl的裁剪缓冲区实现的,因为最近有使用这个功能需要,顺便把这部分实现看看了看. opengl的裁剪主要有以下几个步骤: 1.开启裁剪缓冲区 2.设置裁剪缓冲区中的mask. 3.正常绘制图形,这个时候会根据裁剪缓冲区的值和设置好的比较函数进行计算,根据通过与否选择是否会知道framebuffer 4.绘制完成之后关闭裁剪缓冲区 这几个步骤在cocos2dx的clippingNode中体现在以下的这段代码中: <pre name="code"

24、Cocos2dx 3.0游戏开发找小三之网格动作:高炫酷的3D动作

重开发者的劳动成果,转载的时候请务必注明出处:http://blog.csdn.net/haomengzhu/article/details/37596763 网格动作类似于动作特效,可以实现翻转.震荡.抖动.水的波纹等效果. 网格的基类: GridBase* Grid 获取或设置该节点的网格特效状态.网格应用于绘图平面上,可以实现水纹等 3D 特效: 基类定义:cocos2d/2d/CCGrid.h中: 基于这个基类有两个子类: Grid3D TiledGrid3D 这两个子类的共同点是:网格

浅谈webshell检测方式

一  什么是webshell "web"的含义是显然需要服务器开放web服务,"shell"的含义是取得对服务器某种程度上操作权限.webshell常常被称为匿名用户(入侵者)通过网站端口对网站服务器的某种程度上操作的权限.简单理解:webshell就是一个web的页面,但是它的功能非常强大可以获得一些管理员不希望你获得的权限,比如执行系统命令.删除web页面.修改主页等.webshell中由于需要完成一些特殊的功能就不可避免的用到一些特殊的函数,我们也就可以对着特

为什么深度学习几乎成了计算机视觉研究的标配?

https://zhuanlan.zhihu.com/p/21533690 标签: 深度学习计算机视觉研究标配 2016-07-09 16:38 1951人阅读 评论(0) 收藏 举报  分类: 计算机视觉CV(308)  目录(?)[+] 本次CVPR 2016上,深度学习几乎成了如今计算机视觉研究的标配,人脸识别.图像识别.视频识别.行人检测.大规模场景识别的相关论文里都用到了深度学习的方法,加上Google,Facebook这样的大企业助力,很多人疑惑,为什么深度学习相比其它的AI实现方法