getNewWindConfigs 取新风数据

POST

REQUEST 1:

  {
   "action":"getNewWindConfigs",
   "token":"774c190a-f4fa-4f54-8395-42e180e5ae27"
}

Response 1:

{
    "data": [
        {
            "AppUserKey": null,
            "CreatedStamp": "/Date(1462718259304+0800)/",
            "DeviceBrandKey": "d518e553-7085-408a-885a-dca5fe29bf27",
            "DeviceBrandName": "普瑞泰",
            "DeviceType": null,
            "ItemTypeObj": null,
            "Key": "d1ca609b-9dbe-4e2c-9683-bbda3387f86a",
            "TotalBudget": 976.3,
            "NewWindSpecialDemand": {
                "CreatedStamp": "/Date(1462718259304+0800)/",
                "IsToOpenInvoiceTicket": true,
                "Key": "9470f42b-2094-4ce9-9538-4b64df70e6bd",
                "IsToRemovePM2_5": false
            }
        }
    ],
    "msg": "success",
    "responseCode": {
        "msgCode": 200,
        "msgDetail": "OK"
    },
    "serverTime": "2016-05-08 22:37:39",
    "success": true
}

request 2:

  {
   "action":"getNewWindConfigs",
   "token":"774c190a-f4fa-4f54-8395-42e180e5ae27",
    "requestData":{
          "ConfigKey":"D3CA609B-9DBE-4E2C-9683-BBDA3387F86A"
      }
}

response 2:

{
    "data": [
        {
            "AppUserKey": null,
            "CreatedStamp": "/Date(1462720021023+0800)/",
            "DeviceBrandKey": "d518e553-7085-408a-885a-dca5fe29bf27",
            "DeviceBrandName": "普瑞泰",
            "DeviceType": null,
            "ItemTypeObj": null,
            "Key": "d3ca609b-9dbe-4e2c-9683-bbda3387f86a",
            "TotalBudget": 23.57,
            "NewWindSpecialDemand": {
                "CreatedStamp": "/Date(1462720021023+0800)/",
                "IsToOpenInvoiceTicket": false,
                "Key": "8741e766-2bfc-45b0-86d7-1e7e9876b608",
                "IsToRemovePM2_5": false
            }
        },
        {
            "AppUserKey": null,
            "CreatedStamp": "/Date(1462720021023+0800)/",
            "DeviceBrandKey": "d518e553-7085-408a-885a-dca5fe29bf27",
            "DeviceBrandName": "普瑞泰",
            "DeviceType": null,
            "ItemTypeObj": null,
            "Key": "d1ca609b-9dbe-4e2c-9683-bbda3387f86a",
            "TotalBudget": 976.3,
            "NewWindSpecialDemand": {
                "CreatedStamp": "/Date(1462720021023+0800)/",
                "IsToOpenInvoiceTicket": true,
                "Key": "9470f42b-2094-4ce9-9538-4b64df70e6bd",
                "IsToRemovePM2_5": false
            }
        }
    ],
    "msg": "success",
    "responseCode": {
        "msgCode": 200,
        "msgDetail": "OK"
    },
    "serverTime": "2016-05-08 23:07:01",
    "success": true
}

时间: 2024-12-20 10:47:09

getNewWindConfigs 取新风数据的相关文章

Java语言实现通过Ajax抓取后台数据及图片

1.Java语言实现通过Ajax抓取后台数据及图片信息 1.1数据库设计 create table picture( pic_id number not null, pic_name varchar(200)not null, pic_url varchar2(200) not null, pic_descp varchar2(200) not null, pic_price varchar2(200) not null ) insert into picture values(1 ,'小米5s

Asp.net 使用正则和网络编程抓取网页数据(有用)

Asp.net 使用正则和网络编程抓取网页数据(有用) /// <summary> /// 抓取网页对应内容 /// </summary> /// <param name="strUrl">採集地址</param> /// <param name="Begin">開始字符</param> /// <param name="End">结束字符</param&g

sql 分组取最新的数据sqlserver巧用row_number和partition by分组取top数据

SQL Server 2005后之后,引入了row_number()函数,row_number()函数的分组排序功能使这种操作变得非常简单 分组取TOP数据是T-SQL中的常用查询, 如学生信息管理系统中取出每个学科前3名的学生.这种查询在SQL Server 2005之前,写起来很繁琐,需要用到临时表关联查询才能取到.SQL Server 2005后之后,引入了row_number()函数,row_number()函数的分组排序功能使这种操作变得非常简单.下面是一个简单示例: --1.创建测试

爬虫再探实战(五)———爬取APP数据——超级课程表【一】

关于爬虫,开始以为只能爬取网页数据,后来知道APP也能抓取.于是,在学校利用空闲时间,耗时两周实现了数据的抓取和简单的数据分析. 目标,抓取超级课程表XX大学(其实是我们大学啦...)学生20000条发帖信息.思路如下: STEP1:为我们的爬虫找到入口 APP请求数据,也是通过网络协议,这样,我们就抓包来定位入口,这里我用的是fiddler.关于设置手机和fiddler的关联,请参考这篇文章. 找到登陆入口为:http://120.55.151.61/V2/StudentSkip/loginC

利用linux curl爬取网站数据

看到一个看球网站的以下截图红色框数据,想爬取下来,通常爬取网站数据一般都会从java或者python爬取,但本人这两个都不会,只会shell脚本,于是硬着头皮试一下用shell爬取,方法很笨重,但旨在结果嘛,呵呵. 2.首先利用curl工具后者wget工具把整个网站数据爬取下来 curl 网址 >wangzhan.txt 3.查看wangzhan.txt文件,找出规则,看到数据是存放在哪个地方,本人是把txt文件拷到本机上用UE打开方便查看.通过查看文件,我发现数据是存储在"var aut

java抓取网页数据,登录之后抓取数据。

最近做了一个从网络上抓取数据的一个小程序.主要关于信贷方面,收集的一些黑名单网站,从该网站上抓取到自己系统中. 也找了一些资料,觉得没有一个很好的,全面的例子.因此在这里做个笔记提醒自己. 首先需要一个jsoup的jar包,我用的1.6.0..下载地址为:http://pan.baidu.com/s/1mgqOuHa 1,获取网页内容(核心代码,技术有限没封装). 2,登录之后抓取网页数据(如何在请求中携带cookie). 3,获取网站的ajax请求方法(返回json). 以上这三点我就用一个类

Asp.net 使用正则和网络编程抓取网页数据(实用)

Asp.net 使用正则和网络编程抓取网页数据(实用) /// <summary> /// 抓取网页相应内容 /// </summary> /// <param name="strUrl">采集地址</param> /// <param name="Begin">开始字符</param> /// <param name="End">结束字符</param&g

java对象转JSON JS取JSON数据

JsonConfig config = new JsonConfig(); config.setJsonPropertyFilter(new PropertyFilter() { @Override public boolean apply(Object arg0, String arg1, Object arg2) { // 过滤掉对象里的包含自己的属性(自己关联自己) if (arg1.equals("wareTypes") || arg1.equals("skillS&

数据库取的数据打包成json然后传值到前端

后端用get或者post从数据库取的数据如何打包成json: 需要下载json的jar包,这里有:http://download.csdn.net/detail/zhangy0329/607838 Connection ct = null; Statement sm = null; ResultSet rs = null; try{ Class.forName("com.mysql.jdbc.Driver"); //连接mysql数据库 ct = DriverManager.getCo