微服务链路之测试环境快速部署

一般公司都会有开发环境、测试环境、线上环境,测试环境主要用于给测试人员测试每次新功能开发后提交的代码。随着公司业务的增长,这时候同时测试的新功能会越来越多,之前搭建的测试环境,一般是一到三个,这时候同时测试的功能数量远远大于测试环境的个数,就会导致测试人员会等待,有点像一个双核cpu要执行4个任务,并且每个任务不能切换执行,所以只能一个一个执行完,这样的执行过程就会导致测试的效率低下。对于这个问题,通常我们有几种解决方式。其中最简单的就是再多增加几套测试环境,这个方式也是业界用的最多的,它的优势在于新的环境是一套完整的隔离的环境,对其他环境没有影响,劣势在于每次搭建这样一套完整的测试环境需要所有的应用都部署一次,这个过程需要很多硬件资源,同时需要所有应用都在代码里面增加一个环境的配置文件然后再发布一次,整个过程下来是很耗费时间的。这时候就有了第二种方式,那就是只部署需要测试的几个应用,通过传递请求头参数,同时改造底层的服务调用框架,这时候部署的几个应用的调用链路还是是完整的,同时对于测试的功能也是完全隔离的,这样的方式能显著提高应用部署到新的测试环境,提供测试的测试效率。本文就基于后面的方式给出一些技术方案和一些遇到的问题。

由于我们后端应用的微服务的构建基于dubbo和rocketmq,所以我们对这两个框架进行改造来适应我们的测试环境快速搭建。

下面是我们要实现的一个链路调用图:

下文描述的主环境或者主测试环境就是qa-test,测试环境就是qa-test1。

从图中可以看出,我们要保证主环境是一直可用的,对于测试环境,我们需要确保测试环境里面部署了就调用测试环境的应用,测试环境没有对应的应用的部署就调用主环境的应用。有了这个目标后,我们就知道改造的技术点。由于我们的改造链路调用流程只在测试环境生效,同时为了对开发透明,开发不需要修改任何代码,所以我们选择使用javaagent的方式。在字节码增强这个技术领域,有asm和javassist两个框架可以使用,但都是比较偏底层的api,使用起来难免有些难度,所以我们使用了bytebuddy,bytebuddy基于asm进行封装,对上层提供了更简易的api,这样让我们实现字节码增强的开发工作量大大降低。有了buteddy这个框架以后,我们只需要关注具体需要增强的代码块。

对于dubbo,我们在provider注册的时候带上环境参数,然后在consumer端提取请求参数选择对应的invoker进行调用。对于rocketmq,我们修改broker的分发逻辑,通过消息的环境属性来选择分发给对应环境的consumer group,在客服端,通过agent来加上环境参数到消息里面然后进行消息发送。

面临的问题:

跨线程调用的参数传递,比如应用在线程1里面消费了数据后,在另一个线程2里面调用rpc或者发送mq,这时候需要线程1的参数传递给线程2。

对于这个问题,我们使用transmittable-thread-local这个框架来解决跨线程的参数传递。

对于主环境消费的批量消息,这些消息包含了多个环境,然后这些消息会进行远程调用,这时候没有办法让每个消息都能发送到正确的环境。

对于这个问题,暂时没有更好的解决办法,如果真遇到了这个场景就把这个功能的测试放到主测试环境。

数据库结构变更,通常产生了增加字段,删除字段等。这时候要求主环境和测试环境都兼容新的表结构,否则需要在测试环境单独建一个数据库,这样的话会增加部署的成本。

对于这个问题,通常结构变更都是向前兼容的,并且我们的每个主环境的结构都是一致的,所以这个问题的出现概率比较小,同时一旦出现了可以使用主环境或者单独部署一个数据库来解决。

总结

在实现上面的技术点的时候遇到了一些坑,但是最后都顺利解决了,其中最值得一提的是加载bytebuddy的默认classloader是AppClassLoader,但是使用springboot的项目里面通过Java -jar的方式启动的话,加载项目的class是LaunchedURLClassLoader,这会导致bytebuddy的字节码增强失败,所以在bytebuddy里增强字节码的地方不要使用具体的类型,使用Object替代,然后在字节码里面转为具体的类型,运行时class的classloader时正确对应的。还有一个问题时发布系统需要支持测试环境的发布,为了快速搭建和销毁资源,我们使用docker来支持。我们的项目目前还处在试用的初期,还有很多问题需要在使用以后待改进,所以整个技术方案还有很多待完善补充的地方。

原文地址:https://www.cnblogs.com/sea520/p/12230733.html

时间: 2024-11-10 13:11:43

微服务链路之测试环境快速部署的相关文章

开发者测试(4)-采用精准测试工具对dubbo微服务应用进行测试

简介:本文主要目的是把现今主流的Dubbo框架项目和精准测试进行对接,通过精准测试的数据穿透.数据采集.测试用例与代码的双向追溯.数据分析等一系列精准测试的特有功能达到对项目质量的保证. 本次环境搭建分为基础环境准备.Dubbo环境搭建.精准测试环境搭建.精准测试与Dubbo环境对接等一整套完整的配置过程,用户可以通过下图中的流程图确认自己所部署过程中进行到的阶段点,从而排查部署中可能遇见的问题. 一 dubbo的工具配置流程 1,使用工具 1, Eclipse Java Photon2, JD

【星云测试】开发者测试(4)-采用精准测试工具对dubbo微服务应用进行测试

简介:本文主要目的是把现今主流的Dubbo框架项目和精准测试进行对接,通过精准测试的数据穿透.数据采集.测试用例与代码的双向追溯.数据分析等一系列精准测试的特有功能达到对项目质量的保证. 本次环境搭建分为基础环境准备.Dubbo环境搭建.精准测试环境搭建.精准测试与Dubbo环境对接等一整套完整的配置过程,用户可以通过下图中的流程图确认自己所部署过程中进行到的阶段点,从而排查部署中可能遇见的问题. 一 dubbo的工具配置流程 1,使用工具 1, Eclipse Java Photon2, JD

通用电气GE微服务实践:在容器中部署有状态应用

通用电气GE 通用电气GE,创立于1892年,是世界上最大的技术和服务跨国公司.自托马斯·爱迪生创建通用电气公司以来,业务遍及世界上100多个国家,拥有员工315,000人. GE在航空,电力,运输,能源等行业具备丰富的产品线和运营经验.同时GE也通过数字化的方式帮助客户进行产品的运维,数据分析和改进.GE为此建立了自己的物联网数字化平台. GE采用微服务架构,并通过容器来运行有状态应用.为此,需要建立CSI(Container Storage Interface),GE尝试了一些办法,但是从使

测试环境安装部署文档

一.服务器1.测试环境信息测试环境地址:192.168.1.143 项目部署登陆linux系统用户信息 登陆用户名:higtspeed密 码:安装REDIS,MYSQL,JDK需要使用root用户,密码此处不公布.2.查看部署服务器版本登陆服务器,通过命令cat /etc/redhat-release 查看服务器版本信息.本次以测试环境服务器版本为例:[[email protected] ~]$ cat /etc/redhat-release Red Hat Enterprise Linux S

微服务中的测试

每个人的开发能力不同,要保证线上应用没问题,接口可用率达到100%,无天窗.无bug 难度还是比较大的,特别是业务开发很多要跟版发,时间紧.任务重问题更加严峻. 加强需求合理性评审,设计合理性评审,代码review. 单元测试: (junit)尽量将路径都覆盖到.(缺点代码实现不合理,代码结构修改,整个 程序结构变化会导致测试用例修改工作量大). 集成测试: (自己研发) 自动化读取配置的多个类型的pin,通用调用接口,匹配结果返回 个数,返回类型,部分pin匹配到返回值.自己开发的集成测试工具

随手看的一本书《java微服务》,测试成功了其中的第一个样例

静态语言,JAVA应该多了解,结合微服务,DOCKER,再搞搞SPRING CLOUD,就能跟上时代了. 对了,链一个买书的地址: https://item.jd.com/12089180.html (我有时就不了解,一个程序员的收入,买一些书就那么小心呢?呵呵,收入都作什么去了??:)) pom.xml <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven

Linux平台 Oracle 11g DG测试环境快速搭建参考

环境现状: 两台虚拟主机A和B: 1. A机器已安装ASM存储的Oracle 11g 实例 参考:http://www.cnblogs.com/jyzhao/p/4332410.html 2. B机器已安装系统,配置以及目录结构均和A机器保持一致 /u01 + 3块ASM盘 DG部署规划:   primary standby 主机 JY-DB JY-DBS db_name jyzhao jyzhao db_unique_name jyzhao jyzhao_s instance_name jyz

Zipkin和微服务链路跟踪

本期分享的内容是有关zipkin和分布式跟踪的内容. 首先,我们还是通过spring initializr来新建三个项目.一个zipkin service.另外两个是普通的业务应用,分别叫service和client. zipkin service client service 如上我们引入了web .zipkin client两个依赖. 新建zipkin server应用 先打开zipkin-service项目. 我们来看看依赖情况: <dependency> <groupId>

测试环境下部署MHA

介绍: MHA架构至少需要3台服务器.两台Master.其中一台位主master,另外一台为备master,第三台位slave机器. MHA两部分构成.MHA manager和MHA data.管理节点和数据节点. MAH在自动故障切换的过程中,MHA试图从的宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失.但是数据肯定会丢失的.(主服务器硬件故障/无法通过ssh访问) MHA的切换过程 (1)从宕机崩溃的master保存二进制日志事件(binlog events); (2)识别含有最新