考勤-几种刷卡数据导入方式

一、程序支持-.txt格式(推荐)
通过程序提供的“考勤/刷卡数据/打卡数据导入向导”手工导入数据。

该方式的特点是简单不需要太大实施成本,实施员在上线初期为客户配置好相关项,人事每周只需要将刷卡数据按格式导入即可。
缺点是只能导入.txt格式的数据,对于考勤机导出的数据是.exe格式,需要人工转换。

二、EDI导入

刷卡数据导入主要是将员工的刷卡数据按照某种方式导入到HTArf表,最终参加考勤运算。而在原???刷卡数据HTArf表主要的字段有TimeCardID(考勤卡号)和DocDate(日期),它们分别用来标识员工所对应的考勤卡及刷卡的日期时间。EDI导入主要通过HTArf表中的DateInfo描述信息扩展至其他字段上。路径:Suite/EDI及条码/数据交换。
1.txt格式
概览:注意解释器方式选择“Text解释器(时间专用)”。

列设置:这边主要导入描述信息DateInfo,再通过扩展完成考勤卡号和日期的写入。

很多人导入考勤刷卡数据再运算,可能发现刷卡数据并未参加运算,这时就需要检查HTArf表中的几个字段的数据格式是否正确。

扩展

2.exe格式概览:解释器方式选择“Excel解释器”。

列设置:这边主要导入考勤卡号和日期。如果只想导入描述信息DateInfo,再通过扩展获得考勤卡号和日期,则参考上面.txt格式。

excel中刷卡数据示例如下:

注,机器号主要是用来存在多考勤机的时候,区别上下班打卡数据时使用,若不存在此情况,可忽略。

三、定时数据交换

通过“管理/系统服务/定时数据交换”实现刷卡数据的自动导入。
1.在”suite/EDI及条码/数据交换“中定义EDI模板,具体可参见2#;
2.在”管理/定时服务/定时数据交换“中设置自动执行周期等。

说明:
1.来源文件夹是指未导入系统的考勤数据所存储的文件夹,文件的格式必须和数据交换模板中定义的一致;转储文件夹是指考勤数据成功导入后,文档转移或转储的路径。
2.该定时数据交换启动后,若在开始结束时间范围内,来源文件夹中存在文档,则系统会自动执行导入。

时间: 2024-11-06 21:32:30

考勤-几种刷卡数据导入方式的相关文章

013-HQL中级3-Hive四种数据导入方式介绍

Hive的几种常见的数据导入方式这里介绍四种:(1).从本地文件系统中导入数据到Hive表:(2).从HDFS上导入数据到Hive表:(3).从别的表中查询出相应的数据并导入到Hive表中:(4).在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中. 一.从本地文件系统中导入数据到Hive表先在Hive里面创建好表,如下: hive> create table wyp > (id int, name string, > age int, tel string) > R

HIVE几种数据导入方式

HIVE几种数据导入方式 今天的话题是总结Hive的几种常见的数据导入方式,我总结为四种:(1).从本地文件系统中导入数据到Hive表:(2).从HDFS上导入数据到Hive表:(3).从别的表中查询出相应的数据并导入到Hive表中:(4).在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中.我会对每一种数据的导入进行实际的操作,因为纯粹的文字让人看起来很枯燥,而且学起来也很抽象.好了,开始操作! 一.从本地文件系统中导入数据到Hive表 先在Hive里面创建好表,如下: hive

Hive学习(七)Hive四种数据导入方式

Hive的几种常见的数据导入方式 这里介绍四种: (1).从本地文件系统中导入数据到Hive表: (2).从HDFS上导入数据到Hive表: (3).从别的表中查询出相应的数据并导入到Hive表中: (4).在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中. 一.从本地文件系统中导入数据到Hive表 先在Hive里面创建好表,如下: hive> create table wyp > (id int, name string, > age int, tel string)

MySQL两种原生数据导入方式对比, 及使用

有这样一类需求, 将收集的数据, 处理为多个文件, 导入到MySQL数据库中对应的表内, 之后通过WEB应用展示给用户. 由于数据库是主从复制结构, 导入大量数据时, 复制延时比较大, 导致监控系统报警. 作为例行任务, 每次都报警, 确实让人心烦. 如何才能不报警呢- 大致有两个思路, 一个是从监控入手, 一个是尽量不让数据导入造成延时. 对于前者, 可调整数据库监控脚本, 导入数据过程有延时, 而不进行报警. 但有个问题, 对于使用从库对的应用, 可能由于延时, 获取不到正确的数据. 这样来

【hive】——Hive四种数据导入方式

Hive的几种常见的数据导入方式这里介绍四种:(1).从本地文件系统中导入数据到Hive表:(2).从HDFS上导入数据到Hive表:(3).从别的表中查询出相应的数据并导入到Hive表中:(4).在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中. 一.从本地文件系统中导入数据到Hive表 先在Hive里面创建好表,如下: hive> create table wyp > (id int, name string, > age int, tel string) >

014-HQL中级4-Hive中的三种不同的数据导出方式介绍

根据导出的地方不一样,将这些方式分为三种:(1).导出到本地文件系统:(2).导出到HDFS中:(3).导出到Hive的另一个表中.为了避免单纯的文字,我将一步一步地用命令进行说明. 一.导出到本地文件系统 hive> insert overwrite local directory '/home/wyp/wyp' > select * from wyp; 复制代码 这条HQL的执行需要启用Mapreduce完成,运行完这条语句之后,将会在本地文件系统的/home/wyp/wyp目录下生成文件

HBase 实战(1)--HBase的数据导入方式

前言: 作为Hadoop生态系统中重要的一员, HBase作为分布式列式存储, 在线实时处理的特性, 备受瞩目, 将来能在很多应用场景, 取代传统关系型数据库的江湖地位. 本篇博文重点讲解HBase的数据导入, 描述三种方式, Client API, Bulkload, 以及Hive Over HBase. *). Client API实现借助HBase的Client API来导入, 是最简易学的方式. Configuration config = HBaseConfiguration.crea

sql有几种删除表数据的方式

有几种删除表数据的方式? truncate.delete和drop都可以删除数据. TRUNCATE TABLE删除表中的所有行,而不记录单个行删除操作. TRUNCATE TABLE 与没有 WHERE 子句的 DELETE 语句类似:但是,TRUNCATE TABLE 速度更快,使用的系统资源和事务日志资源更少.DELETE 语句每次删除一行,并在事务日志中为所删除的每行记录一项.TRUNCATE TABLE 通过释放存储表数据所用的数据页来删除数据,并且只在事务日志中记录页的释放. TRU

几种获取网络数据的方式

这几天把自己常用的获取数据的方式整理了下.因自己也是菜鸟一个,还有好多都不知道,所以不是太好,但自己一直用着,就拿出来分享.也为以后自己方便查找.这几天一直用着anguler,就用anguler写吧!里面用到了node,所以在使用的时候要看下自己的电脑是否有node 环境.如果还有别的更简单的方法希望赐教,嘻嘻! HTML: <html ng-app="myApp"> <head> <meta charset="UTF-8"> &