影像批量除以10000

影像做除法时,要先进行float()运算,在进行Divide运算。以下将指定文件夹下的.tif文件首先转换为float并保存在指定文件,再进行divide运算。

import arcpy,os,glob
arcpy.CheckOutExtension("spatial")
datafiles=glob.glob("F:\\Modis_16\\1Moasic\\*.tif")
for datafile in datafiles:
    outRaster_float ="F:\\Modis_16\\2float\\"+"flo_"+datafile[20:28]
    arcpy.gp.Float_sa(datafile, outRaster_float)
    outRaster_divide="F:\\Modis_16\\3divide\\"+"div_"+outRaster_float[23:32]
    arcpy.gp.Divide_sa(outRaster_float,"10000",outRaster_divide)
    print datafile+"     has done!"
print 'done....'

说明:此处没有用到Raster Calculator,对于栅格计算器的使用,还有待于学习。

时间: 2024-10-22 16:56:35

影像批量除以10000的相关文章

GIS地理工具案例教程——批量合并影像-批量镶嵌栅格

商务合作,科技咨询,版权转让:向日葵,135-4855__4328,xiexiaokui#qq.com 关键词:批量.迭代.循环.自动.智能.地理信息.空间数据.空间信息.大数据.工作空间.合并.镶嵌. 描述:合并目录下的所有影像 功能:对指定工作空间下的栅格数据,进行批量镶嵌 优点: 速度极快,合并成百上千张影像(由硬件决定) 使用简单,智能提示,默认参数 稳定高效,使用模型,无手写代码,永无bug 使用方法:指定待合并(镶嵌)的文件夹,输出路径 案例: 结果: 合并前 ? 合并后 实际案例:

利用Envi Idl和MRT 对MODIS影像批量转投影

1.Envi IDL pro enviprojection COMPILE_OPT IDL2 envi, /restore_base_save_files envi_batch_init, log_file='batch.txt' cd,'F:\MCD12Q2' HDFFiles = FILE_Search("*.HDF") FileCount = N_ELEMENTS(HDFFiles) IF FileCount EQ 0 THEN RETURN o_proj = ENVI_PROJ

MRT(MODIS Reprojection Tool)安装、影像批量拼接、重投影和格式转换

一.安装MRT(MODIS Reprojection Tool) 安装准备:检查是否安装java.exe.Java版本至少为Java 2 Runtime Environment version 1.5或者是Java 2 SDK version 1.5或者更高的版本.在Windows平台中可以通过开始/搜索并输入java.exe来检查自己的电脑是否安装有java,也可以不检查直接重新安装一份. 解压安装包MRT_download_<platform>.zip.包含四个文件:mrt_install

Oracle批量提交

今天在项目中碰到一个问题,就是需要批量提交10000条语句, 刚开始使用的是statement.addBatch(),结果提交的时候发现需要26秒; 检查半天,发现批量提交的时候也要关掉自动提交(重要),不然极其影响性能. 改了一下程序,最终代码如下,执行时间为1秒钟: 1 // 获取一个连接 2 Connection conn = null; 3 PreparedStatement pstm = null; 4 try { 5 conn = DBConnectionManager.getIns

SQL Server 2012中快速插入批量数据的示例及疑惑

SQL Server 2008中SQL应用系列--目录索引 今天在做一个案例演示时,在SQL Server 2012中使用Insert语句插入1万条数据,结果遇到了一个奇怪的现象,现将过程分享出来,以供有兴趣的同学参考. 附:我的测试环境为:SQL Server 2012,命名实例 Microsoft SQL Server 2012 - 11.0.2100.60 (Intel X86) Feb 10 2012 19:13:17 Copyright (c) Microsoft Corporatio

mysql 批量插入与单条插入 的效率比较

1.数据插入性能(单个插入和批量插入) [java] view plain copy public class Test { private Long id; private String test; public Long getId() { return id; } public void setId(Long id) { this.id = id; } public String getTest() { return test; } public void setTest(String t

sql server中的大数据的批量操作(批量插入,批量删除)

首先我们建立一个测试用员工表 ---创建一个测试的员工表--- create table Employee( EmployeeNo int primary key, --员工编号 EmployeeName nvarchar(50) null, --员工名称 CreateUser nvarchar(50) null, --创建人 CreateDate datetime null, --创建时间 ) 执行后结果: 那么假如我们要批量插入10000条数据,应该怎么办? 这里有四种方法(普通循环,事务循

Java使用Pipeline对Redis批量读写(hmset&amp;hgetall)

一般情况下,Redis Client端发出一个请求后,通常会阻塞并等待Redis服务端处理,Redis服务端处理完后请求命令后会将结果通过响应报文返回给Client.这有点类似于HBase的Scan,通常是Client端获取每一条记录都是一次RPC调用服务端.在Redis中,有没有类似HBase Scanner Caching的东西呢,一次请求,返回多条记录呢?有,这就是Pipline.官方介绍 http://redis.io/topics/pipelining 通过pipeline方式当有大批

Java使用Pipeline对Redis批量读写(hmset&hgetall)

一般情况下,Redis Client端发出一个请求后,通常会阻塞并等待Redis服务端处理,Redis服务端处理完后请求命令后会将结果通过响应报文返回给Client. 这有点类似于HBase的Scan,通常是Client端获取每一条记录都是一次RPC调用服务端. 在Redis中,有没有类似HBase Scanner Caching的东西呢,一次请求,返回多条记录呢? 有,这就是Pipline.官方介绍 http://redis.io/topics/pipelining 通过pipeline方式当