GIS-013-Cesium Terrain 数据生成

一、Python

1、修改Python脚本文件

if __name__==‘__main__‘:
#sys.argv = [‘F:\\000_Terrain\\T7-gdal2srtmtiles-demo.py‘, ‘--cesium‘, ‘--resume‘, ‘-z‘, ‘0-8‘, ‘-p‘, ‘geodetic‘, ‘F:\\50_GIS\\4000_Data\\world_raster\\Day.tif‘, ‘F:\000_Terrain\\terrain_tiles‘]
sys.argv = [‘F:\\000_Terrain\\T7-gdal2srtmtiles-demo.py‘, ‘--cesium‘, ‘--resume‘, ‘-z‘, ‘0-8‘, ‘-p‘, ‘geodetic‘, ‘F:\\50_GIS\\4000_Data\\china500_WGS1984.tif‘, ‘F:\\000_Terrain\\terrain_tiles5‘,‘--s_srs‘,‘EPSG:4326‘]
print(sys.argv)
argv = gdal.GeneralCmdLineProcessor( sys.argv )
if argv:
gdal2tiles = GDAL2Tiles( argv[1:] )
gdal2tiles.process()

2、命令行执行如下

#cd C:\Python27\2711

#python F:\000_Terrain\T7-gdal2srtmtiles-demo.py

时间: 2024-12-14 07:45:20

GIS-013-Cesium Terrain 数据生成的相关文章

在AcGIS中用大数据生成DEM

在ArcGIS中生成DEM时,采用的数据源往往是一些高程点.等高线,这些高程点.等高线比较密集,可能有好几千万个,甚至上亿个高程点.等高线.若利用这些矢量数据生成TIN,一般是不能实现的,因为生成TIN时,支持的最大结点数只能有几千万个(依据电脑性能,受限于内存).另外矢量信息的存储也是比较讲究的,如果把这些矢量信息存储在shp文件中,往往会出现问题(比如在arcmap中加载时出现的绘制错误).综合以上问题,感觉采用如下办法比较可取. 1. 矢量信息存储在Geodatabase中 把矢量信息用统

由excel经纬度数据生成等值线过程

1.准备数据 2.转换成要素类,名称为xy1 3.定义投影 至此,将excel点数据导入的工作已经完成. 接下来,生成等值线: 1.克里金插值(Kriging) 2.生成等值线 由excel经纬度数据生成等值线过程,布布扣,bubuko.com

将表数据生成Insert脚本

-- ============================================= -- Author: 明永成 -- Create date: 2016-01-03 -- Description: 将表数据生成Insert脚本 -- Demo : exec pCreateInsertScript. 'BexmCodeType','dictypeid = 61' -- ============================================= create proc

LoadRunner之Paramater在负载测试中的数据生成规则

LoadRunner之Paramater在负载测试中的数据生成规则 前段时间在做性能测试的时候,基于业务的需求,使用到了Unique Number的参数类型. 脚本的业务是注册以alien开头,后面接数字的用户帐号,填写相关帐号信息.提交企业信息进行审核. 其中用户帐号是alien开头拼接一个唯一数字的参数,如图: 下面对Unique Number进行相关解释,先引用官方资料:(相信大家也理解这段话的意思) Unique Number: Assigns a range of numbers to

传感器仿真平台——数据生成模块(三)

数据生成模块有下面这样一种情况: 对于不同的传感器仿真实验,所使用的数据类型,数据数量不一样. 如实验一是进行最大覆盖率实验,则他需要的数据格式可能是如下所示: 1 Class Sensor 2 { 3 public int x; 4 public int y; 5 public double direction; //方向 6 public double sweep;//扇形大小 7 } 实验二进行的是信号强度实验,则他可能还需要一个用来作为覆盖物的目标,如下: 1 Class Target

SQL Server 利用批量(batchsize)提交加快数据生成/导入

在最小化日志操作解析,应用的文章中有朋友反映生成测试数据较慢.在此跟大家分享一个简单的应用,在生成数据过程中采用批量提交的方式以加快数据导入. 此应用不光生成测试数据上,在BCP导入数据中,复制初始化快照过程中等都可以根据系统环境调整 batchSize 的大小来提高导入/初始化速度. 应用思想:这里简单介绍下组提交概念,由于关系型数据库依靠日志来保证数据完整性,即先写日志,每当一个事务完成时就需要commit日志刷入磁盘,在高并发短小事务的前提下由于日志频繁落盘导致整体写吞吐下降.用Group

根据数据生成列表

<!DOCTYPE html><html> <head> <meta charset="UTF-8"> <title>city修改版</title> <style> #city { display: none; } #city li { overflow: hidden; list-style: none; width: 200px; height: 20px; line-height: 20px; }

根据数据生成表单

<!DOCTYPE html><html> <head> <meta charset="UTF-8"> <title>根据数据生成表单</title> <script> //定义一个数组承接里面的对象内容 //提取数组中的元素(这个元素是对象) //用元素对象type属性判断这个对象是什么类型的标签 //再有对象拿到属性值给标签附上属性 //老套路 window.onload = function()

机器学习算法的随机数据生成

在学习机器学习算法的过程中,我们经常需要数据来验证算法,调试参数.但是找到一组十分合适某种特定算法类型的数据样本却不那么容易.还好numpy, scikit-learn都提供了随机数据生成的功能,我们可以自己生成适合某一种模型的数据,用随机数据来做清洗,归一化,转换,然后选择模型与算法做拟合和预测.下面对scikit-learn和numpy生成数据样本的方法做一个总结. 1. numpy随机数据生成API numpy比较适合用来生产一些简单的抽样数据.API都在random类中,常见的API有: