总部与分公司较大数据拷贝

总公司分公司
网络环境:
总分公司(深圳/惠州)通过×××网络进行连接,为同一内网,总公司网段为192.168.X.X;
分公司网络为10.1.X.X

                业务需求:
                        总分公司需要推送企业微信到各个客户端,有一些是有安装好的,一部分是未安装的,
                尝试过通过××× 内网传输速度大概不到1M,若通过域下发拷贝指令,将影响公司整体带宽          

                解决方案:深圳/惠州(总分部) 各放一台文件服务器, 深圳的可以直接使用域服务器, 并将企业微信安装目录中的所有文件各放入

                深圳/惠州的服务器,例如 \\lee.net\sysvlo..... ;    \\10.1.9.9\wxwork

                在域中新增GPO, 设置用户登录脚本指令如下:

                @echo off

Rem 企业微信安装(因为企业微信直接使用,所以直接判断存在文件不,没有就拷贝生成个快捷方式到当前用户桌面)

rem 判断客户端电脑在深圳还是在惠州(10.1.段IP),再从当地的服务器上拷贝数据,降低对AD服务器网络资源的消耗

ipconfig | findstr "192.168."
if errorlevel 1 goto hz
if errorlevel 0 goto sz
exit
exit
:sz
if not exist "C:\Program Files (x86)\WXWork\WXWork.exe" (
xcopy "\lee.net\SysVol\absen.com\Policies{E4DA57A7-E4CC-4F61-9AA1-3F43B4F2D113}\User\Scripts\Logon\WXWork" "C:\WXWork\" /E /C /Q /Y
copy "C:\WXWork\企业微信.lnk" "%USERPROFILE%/desktop"
) else (
exit
)

:hz

if not exist "C:\Program Files (x86)\WXWork\WXWork.exe" (
xcopy "\10.1.9.9\wxwok" "C:\WXWork\" /E /C /Q /Y
copy "C:\WXWork\企业微信.lnk" "%USERPROFILE%/desktop"
) else (
exit
)

原文地址:http://blog.51cto.com/jameslee/2166921

时间: 2024-08-01 21:22:48

总部与分公司较大数据拷贝的相关文章

大数据拷贝:SqlBulkCopy(from www.sysoft.net.cn)

在ado.net向数据库进行大数据(超过100000行数据)写入时,普通方式会很费时,但ado.net提供一个SqlBulkCopy类,可以大提高数据插入的速度. using(SqlBulkCopy sqlbulkcopy=new SqlBulkCopy(constr)//建立对象实例 ,参数为数据库连接字符串{    sqlbulkcopy.DestinationTableName=tbname//指定将数据导入数据库的工作表    sqlbulkcopy.ColumnMappings.Add

关于BI商业智能的“8大问”|一文读懂大数据BI

这里不再阐述商业智能的概念了,关于BI,就从过往的了解,搜索以及知乎的一些问答,大家困惑的点主要集中于大数据与BI的关系,BI的一些技术问题,以及BI行业和个人职业前景的发展.这里归纳成8个问题点,每个问题都做了精心的解答,希望能给大家带来帮助. 问题1:商业智能BI和大数据是什么关系,如何选择? BI(BusinessIntelligence)即商业智能,它是一套完整的解决方案,用来将企业中现有的数据进行有效的整合,快速准确的提供报表并提出决策依据,帮助企业做出明智的业务经营决策. 大数据(B

玩转大数据系列之Apache Pig如何与Apache Solr集成(二)

散仙,在上篇文章中介绍了,如何使用Apache Pig与Lucene集成,还不知道的道友们,可以先看下上篇,熟悉下具体的流程. 在与Lucene集成过程中,我们发现最终还要把生成的Lucene索引,拷贝至本地磁盘,才能提供检索服务,这样以来,比较繁琐,而且有以下几个缺点: (一)在生成索引以及最终能提供正常的服务之前,索引经过多次落地操作,这无疑会给磁盘和网络IO,带来巨大影响 (二)Lucene的Field的配置与其UDF函数的代码耦合性过强,而且提供的配置也比较简单,不太容易满足,灵活多变的

大数据常见错误

1.用./bin/spark-shell启动spark时遇到异常:java.net.BindException: Can't assign requested address: Service 'sparkDriver' failed after 16 retries! 解决方法:add export SPARK_LOCAL_IP="127.0.0.1" to spark-env.sh 2.java Kafka producer error:ERROR kafka.utils.Util

大数据基础之常用Linux命令

大数据实验环境一般为Linux,熟悉Linux操作非常有必要,总结常用Linux命令如下. 1.cd命令 进入文件夹: cd dirname 进入多级文件夹: cd /usr/local/Cellar 返回上层目录: cd ../ 返回上层的上层: cd ../../ 回到主文件夹 cd 2.ls命令 ls命令用于列出当前文件和目录,加上参数之后可以做更多的事情. 不带参数运行ls会列出文件和目录 ls 使用-l参数切换到长清单模式,会显示当前目录内容的长列表: ls -l 加上-lh参数显示文

Data.gov.uk电子政务云,牛津大学NIE金融大数据实验室王宁:数据治理的现状和实践

牛津大学NIE金融大数据实验室王宁:数据治理的现状和实践 我是牛津互联网研究院的研究员,是英国开放互联网的一个主要的研究机构和相关政策制订的一个机构.今天主要给大家介绍一下英国数据治理的一些现状和实践.Data.gov.uk就是相当于英国的电子政务云.我不知道大家还记不记得这个画面,这是2012年伦敦奥运会的时候,当时的一幕,一个房子拉开了之后一个人在里面座着打计算机,这个人是一个英国籍也是牛津大学毕业的科学家,也是万维网之父.他当时创造互联网时候当时是一个博士生,他有一个想法就是说能不能有一个

从技术架构的角度去丰富你的大数据知识

对于大数据的学习,很长一段时间,都觉得非常迷茫.不知道具体该学习什么!进而导致知识的知识点挺多,而自己所会的内容都不能够形成很好的体系,进而为自己的职场加分.而最近一直在学习相关大数的架构知识,进而具体到一个厂商.这样反而自己学的很快,总结一下前段时间的学习,温故而知新!!! 首先,大数据开始做为概念开始进入公众并在实际业务中落地是在13年.从一项技术的发展来看,这项技术会在18年形成一个很好的闭环.而在此期间,不管你是不是大数据的项目,在这五年内,只要冠以大数据名称都可以获益. 所以,大数据第

我的ElasticSearch集群部署总结--大数据搜索引擎你不得不知

摘要:世上有三类书籍:1.介绍知识,2.阐述理论,3.工具书:世间也存在两类知识:1.技术,2.思想.以下是我在部署ElasticSearch集群时的经验总结,它们大体属于第一类知识“techknowledge(技术)”.但其中也穿插一些我个人的理解.敬请指正. 关键词:ElasticSearch, 搜索引擎, 集群, 大数据, Solr, 大数据 三类书籍 和 两类知识: 有一些书是对某一新知识领域的介绍,将此知识领域从头到尾.从内而外剖开了分析,吸收这些知识主要在于“记忆”,(也有“领会”)

快速传输大数据(tar+lz4+pv)

快速传输大数据(tar+lz4+pv) 如果用传统SCP远程拷贝,速度是比较慢的.现在采用lz4压缩传输.LZ4是一个非常快的无损压缩算法,压缩速度在单核300MB/S,可扩展支持多核CPU.它还具有一个非常快速的解码器,速度单核可达到和超越1GB/S.通常能够达到多核系统上的RAM速度限制. 你PV 全命为Pipe Viewer,利用它我们可以查看到命令执行的进度. 下面介绍下lz4和pv的安装,下载软件: 下载pv-1.1.4.tar.gz wget http://sourceforge.j