arcgis python 随机取部分数据

# -*- coding: cp936 -*-
import arcpy
import os
import ylpy
import random
def main():
    num=ylpy.getCount(inFeature)
    n=int(num*mscale/100)
    ylpy.clearselect(inFeature)
    A=random.sample(range(num),n)
    FID=ylpy.getOIDField(inFeature)
    sql=str(FID)+" in ("
    for i in range(0,n):
        sql=sql+str(A[i])
        if i<n-1:
            sql=sql+","
    sql=sql+")"
    arcpy.Select_analysis(inFeature,outFeature,sql)

inFeature = arcpy.GetParameterAsText(0) #
mscale = arcpy.GetParameter(1) #
outFeature = arcpy.GetParameterAsText(2) #

try:
    main()
    #arcpy.SetParameterAsText(3, inFeature)  # Is polygon
except Exception, ErrorDesc:
    arcpy.AddError(u"gisoracle错误:"+str(ErrorDesc))

原文地址:https://www.cnblogs.com/gisoracle/p/11361173.html

时间: 2024-11-06 09:48:26

arcgis python 随机取部分数据的相关文章

转:使用linq to sql 随机取一行数据的方法

原文地址:http://outofmemory.cn/code-snippet/1760/usage-linq-to-sql-suiji-take-yixing-data-method 虽然这看来已经不是真正的原文地址了 在linq to sql中我们可以通过创建一个假的用户自定义函数的方法来实现随机取一行数据的方法. 首先要在DataContext的类中添加用户自定义函数,最好是放在partial class中: partial class MyDataContext { [Function(

Python爬取房产数据,在地图上展现!

小伙伴,我又来了,这次我们写的是用python爬虫爬取乌鲁木齐的房产数据并展示在地图上,地图工具我用的是 BDP个人版-免费在线数据分析软件,数据可视化软件 ,这个可以导入csv或者excel数据. 首先还是分析思路,爬取网站数据,获取小区名称,地址,价格,经纬度,保存在excel里.再把excel数据上传到BDP网站,生成地图报表 本次我使用的是scrapy框架,可能有点大材小用了,主要是刚学完用这个练练手,再写代码前我还是建议大家先分析网站,分析好数据,再去动手写代码,因为好的分析可以事半功

python爬取网页数据

python时间戳 将时间戳转为日期 #!/usr/bin/python # -*- coding: UTF-8 -*- # 引入time模块 import time #时间戳 timeStamp = 1581004800 timeArray = time.localtime(timeStamp) #转为年-月-日形式 otherStyleTime = time.strftime("%Y-%m-%d ", timeArray) print(otherStyleTime) python爬

利用python爬取龙虎榜数据及后续分析

##之前已经有很多人写过相关内容,但我之前并未阅读过,这个爬虫也是按照自己的思路写的,可能比较丑陋,请见谅! 本人作为Python爬虫新手和股市韭菜,由于时间原因每晚没办法一个个翻龙虎榜数据,所以希望借助爬虫筛选出有用信息,供我分析(其实就是想偷懒...). 每日的龙虎榜数据都在:http://data.eastmoney.com/stock/lhb.html 爬取过程其实很简单,不需要登陆,也不需要模拟浏览器登录:数据量小,因此也不用多进程,也不用更换IP等反爬虫手段.后续的分析可能更关键.

python爬取github数据

爬虫流程 在上周写完用scrapy爬去知乎用户信息的爬虫之后,github上star个数一下就在公司小组内部排的上名次了,我还信誓旦旦的跟上级吹牛皮说如果再写一个,都不好意思和你再提star了,怕你们伤心.上级不屑的说,那就写一个爬虫爬一爬github,找一找python大牛,公司也正好在找人.临危受命,格外激动,当天就去研究github网站,琢磨怎么解析页面以及爬虫的运行策略.意外的发现github提供了非常nice的API以及文档文档,让我对github的爱已经深入骨髓. 说了这么多废话,讲

Python爬取房产数据,哪里跌价买哪里,你可能不赚,但我永远不亏

小伙伴,我又来了,这次我们写的是用python爬虫爬取乌鲁木齐的房产数据并展示在地图上,地图工具我用的是 BDP个人版-免费在线数据分析软件,数据可视化软件 ,这个可以导入csv或者excel数据. 学习Python中有不明白推荐加入交流裙 号:735934841 群里有志同道合的小伙伴,互帮互助, 群里有免费的视频学习教程和PDF! 本次我使用的是scrapy框架,可能有点大材小用了,主要是刚学完用这个练练手,再写代码前我还是建议大家先分析网站,分析好数据,再去动手写代码,因为好的分析可以事半

python爬取网页数据方法

"""#最基本,请求地址无参数# response=urllib.request.urlopen("https://www.scetc.edu.cn")## html=response.read().decode("utf-8")## print(html) #第二种,传参数的情况#参数的转换 参数的原始数据# key_value={'kw' : '胡歌'}# #要使用urllib.parse模块下的urllencode对原始数据进行转

Python抓取网页数据的终极办法!你值得拥有!

假设你在网上搜索某个项目所需的原始数据,但坏消息是数据存在于网页中,并且没有可用于获取原始数据的API.这时,你可以这样解决-- import pandas as pdtables = pd.read_html("https://apps.sandiego.gov/sdfiredispatch/")print(tables[0]) 就这么简单! Pandas可以在页面上找到所有重要的html表,并将它们作为一个新的DataFrame对象返回. 输入表格0行有列标题,并要求它将基于文本的

Python——爬取人口迁徙数据(以腾讯迁徙为例)

说明: 1.迁徙量是腾讯修改后的数值,无法确认真实性. 2.代码运行期间,腾讯迁徙未设置IP屏蔽和浏览器检测,因此下段代码仅能保证发布近期有效. 3.代码功能:爬取指定一天的四十个城市左右的迁徙量(含迁入.迁出). 1 import re 2 import urllib.request 3 import xlwt 4 import xlrd 5 6 date = "20171016" 7 cityList = xlrd.open_workbook("E:/city.xls&q