CDT规约学习

CDT规约 又叫循环式远动规约,它规定了在电网数据采集与监控系统中的功能、帧结构、信息字结构和传输规则等。

CDT的帧结构:

同步字 控制字 信息字1 信息字2    ...  
EB 90 EB 90 EB 90    //同步字
71 61 10 01 00 F7    //控制字
00 88 06 81 01 A7    //信息字1
01 38 07 61 04 6E    //信息字2

同步字:EB 90 / D7 09,作为CDT帧结构的开始

控制字:

控制字节 帧类别 信息字数 源站址 目的站址 校验码
71  //控制字节
61  //帧类别
10  //信息字数
01  //源站址
00  //目的站址
F7  //校验码

控制字中的帧类别定义如下:

信息字数:就是指本帧结构中包含几个信息字。

信息字:

功能码 B1 B2 B3 B4 校验码

其中 B1 B2 B3 B4 是信息体。

功能码定义如下:

遥测功能码: 00H ~ 07H      遥信功能码: F0H ~ FFH

从表可以看出,CDT规约最多可以传送256个遥测,512个遥信。

报文解析举例:

EB 90 EB 90 EB 90        71 61 10 01 00 F7
01 D9 27 A8 61 33        02 4F 16 30 2A 82 .......
0F 7F 13 93 01 E9        10 B1 24 DD 09 C7
//控制字中的帧类别为 61: 说明是A帧遥测,
//信息数目为 10: 说明有16个信息字,接下来信息字的功能码会从01发 到10,共16个。 注:10为16进制,转换为10进制为16.
//源站址01  目的站址00  检验码F7

EB 90 EB 90 EB 90        71 C2 10 01 00 F7
11 D9 27 A8 61 33        12 4F 16 30 2A 82 ......
1F 7F 13 93 01 E9        20 B1 24 DD 09 C7
//控制字中的帧类别为 C2: 说明是B帧遥测,
//信息数目为 10: 说明有16个信息字
//源站址01  目的站址00  检验码F7

EB 90 EB 90 EB 90        71 B3 10 01 00 F7
21 D9 27 A8 61 33        22 4F 16 30 2A 82 ......
2F 7F 13 93 01 E9        30 B1 24 DD 09 C7
//控制字中的帧类别为 B3: 说明是C帧遥测,
//信息数目为 10: 说明有16个信息字
//源站址01  目的站址00  检验码F7
EB 90 EB 90 EB 90    71 F4 02 01 00 9BF0 01 00 00 80 F6    F1 00 00 00 00 94
//控制字中帧类别为 F4: 说明是遥信状态
//信息题数目为 02: 说明有2个信息字
//源站址01  目的站址00  检验码9B
//信息字遥信以F0开始,01 00 00 80 为信息内容  F6为校验码
时间: 2024-08-29 01:27:19

CDT规约学习的相关文章

Alibaba Java开发手册索引规约学习笔记

最近一段时间再看阿里巴巴 Java开发手册索引规约,写篇帖子总结一下,索引规约内容如下 索引规约1. [强制]业务上具有唯一特性的字段,即使是多个字段的组合,也必须建成唯一索引. 说明: 不要以为唯一索引影响了 insert 速度,这个速度损耗可以忽略,但提高查找速度是明显的: 另外,即使在应用层做了非常完善的校验控制,只要没有唯一索引,根据墨菲定律,必然有脏数据产生. 2. [强制]超过三个表禁止 join.需要 join 的字段,数据类型必须绝对一致: 多表关联查询时,保证被关联的字段需要有

Hadoop日记Day17---计数器、map规约、分区学习

一.Hadoop计数器 1.1 什么是Hadoop计数器 Haoop是处理大数据的,不适合处理小数据,有些大数据问题是小数据程序是处理不了的,他是一个高延迟的任务,有时处理一个大数据需要花费好几个小时这都是正常的.下面我们说一下Hadoop计数器,Hadoop计数器就相当于我们的日志,而日志可以让我们查看程序运行时的很多状态,而计数器也有这方面的作用.那么就研究一下Hadoop自身的计数器.计数器的程序如代码1.1所示,下面代码还是以内容为“hello you:hell0 me”的单词统计为例.

规约模式学习总结

目前想到的可以使用规约模式的情况(以后想到了再补充): 1. 当有一组条件,被多处使用,且这些条件可以任意组合时,这个时候考虑使用规约模式来解耦: 下面看一下规约模式的简单实现: public interface ISpecification<T> where T : class { bool IsSatisfiedBy( T item ); } public abstract class Specification<T> : ISpecification<T> whe

阿里Java开发手册学习 3 MYSQL规约

建表规约 1.表达是与否概念的字段,必须使用is_XXX的方式命名,数据类型是 unsigned tinyint (1表示是,0表示否). 2.表名不使用复数名词. 3.禁用保留字. 4.小数类型为decimal,禁止使用float和double. 5.表的命名最好是加上"业务名词_表的作用" . 6.修改字段时要及时更新字段注释. 7.字段允许适当冗余,以提高性能. 8.单表行数超过500万行或者单表超过2G时才考虑分库分表. 9.合适的字符存储长度,不但节约数据库表空间.节约索引存

第2节 mapreduce深入学习:7、MapReduce的规约过程combiner

每一个 map 都可能会产生大量的本地输出,Combiner 的作用就是对 map 端的输出先做一次合并,以减少在 map 和 reduce 节点之间的数据传输量,以提高网络IO 性能,是 MapReduce 的一种优化手段之一. ?   combiner 是 MR 程序中 Mapper 和 Reducer 之外的一种组件 ?   combiner 组件的父类就是 Reducer ?   combiner 和 reducer 的区别在于运行的位置: Combiner 是在每一个 maptask

HttpClinet学习笔记

本文为学习httpClient学习过程中转载的文章,若涉及版权请留言. ----------------------------- 前言 超文本传输协议(HTTP)也许是当今互联网上使用的最重要的协议了.Web服务,有网络功能的设备和网络计算的发展,都持续扩展了HTTP协议的角色,超越了用户使用的Web浏览器范畴,同时,也增加了需要HTTP协议支持的应用程序的数量. 尽管java.net包提供了基本通过HTTP访问资源的功能,但它没有提供全面的灵活性和其它很多应用程序需要的功能.HttpClie

【Spark深入学习 -13】Spark计算引擎剖析

----本节内容------- 1.遗留问题解答 2.Spark核心概念 2.1 RDD及RDD操作 2.2 Transformation和Action 2.3 Spark程序架构 2.4 Spark on Yarn运行流程 2.5 WordCount执行原理 3.Spark计算引擎原理 3.1 Spark内部原理 3.2 生成逻辑执行图 3.3 生成物理执行图 4.Spark Shuffle解析 4.1 Shuffle 简史 4.2  Spark Shuffle ·Shuffle Write

Spark 学习: spark 原理简述与 shuffle 过程介绍

Spark学习: 简述总结 Spark 是使用 scala 实现的基于内存计算的大数据开源集群计算环境.提供了 java,scala, python,R 等语言的调用接口. Spark学习 简述总结 引言 1 Hadoop 和 Spark 的关系 Spark 系统架构 1 spark 运行原理 RDD 初识 shuffle 和 stage 性能优化 1 缓存机制和 cache 的意义 2 shuffle 的优化 3 资源参数调优 4 小结 本地搭建 Spark 开发环境 1 Spark-Scal

Android深度探索(卷1)HAL与驱动开发学习笔记(2)

Android深度探索(卷1)HAL与驱动开发学习笔记(2) 第二章搭建Android开发环境 书中介绍了两种JDK的安装方法, 方法一: 从官网下载JDK并进行配置,解压后在终端打开profile文件来设置PATH环境变量(# soure /etc/profile),打开profile文件后输入下面的内容 export PATH=.:developer/jdk6/bin:$PATH 保存profile文件以后,有两种方法可以重新加载profile文件. 1.# sourse  /etc/pro