dbTable

标签:

<my-Double-Table double-Table="doubleTable" head-List="headList" select-Match-List-Tmp="selectMatchListTmp" select-Match-List="selectMatchList" is-Query="isQuery" filter-Input-Rigth="filterInputRigth" match-List="matchList" select-Data="selectData" on-Rigth-Input-Change-Back="onRigthInputChangeBack()" rigth-Sort-Obj="rigthSortObj" rigth-Sum="rigthSum" ></my-Double-Table>

属性:

headList
$scope.headList = [
    {name:"运单号",code:"trackingNum",width:"100"},
    {name:"货号",code:"goodsNumber",width:"100"},
    {name:"收货人",code:"consigneeName",width:"130"},
];
传入头部的标签,格式为数组对象 [{},{}],  name:表头的名称  code:列表返回的数据对应的字段的key值  width:可以设置列的宽度

selectMatchListTmp右边实际选择的数据
selectMatchList查询结果列表
isQuery(待定)
matchList查询结果列表
selectData统计查询结果检索条件
onRigthInputChangeBackonRigthInputChange方法回调

filterInputRigth右边的过滤器
rigthSortObj保存右边的排序
rigthSum
右边的统计数据
doubleTable用于暴露内部方法,提供给外部调用  queryList:查询数据  leftBtselect:左边信息移动到左边  rigthBtselect:右边信息移动到左边  rigthSumFn:右边数据汇总  leftSumFn:左边数据汇总  onRigthSortClick:右边数据排序方法  onRigthInputChange:右边过滤方法
时间: 2024-10-08 21:19:26

dbTable的相关文章

Spark-SQL之DataFrame操作大全

Spark SQL中的DataFrame类似于一张关系型数据表.在关系型数据库中对单表或进行的查询操作,在DataFrame中都可以通过调用其API接口来实现.可以参考,Scala提供的DataFrame API. 本文中的代码基于Spark-1.6.2的文档实现. 一.DataFrame对象的生成 Spark-SQL可以以其他RDD对象.parquet文件.json文件.Hive表,以及通过JDBC连接到其他关系型数据库作为数据源来生成DataFrame对象.本文将以MySQL数据库为数据源,

【Spark深入学习 -16】官网学习SparkSQL

----本节内容-------1.概览        1.1 Spark SQL        1.2 DatSets和DataFrame2.动手干活        2.1 契入点:SparkSession        2.2 创建DataFrames        2.3 非强类型结果集操作        2.4 程序化执行SQL查询        2.5 全局临时视图        2.6 创建DataSets        2.7 与RDD交互操作        2.8 聚集函数3.Sp

一个基于DapperHelper的t4三层

Model Model Model <#@ template debug="false" hostspecific="true" language="C#" #><#@ output extension=".cs" #><#@ assembly name="System.Data.DataSetExtensions.dll" #><#@ import namespa

SparkSql官方文档中文翻译(java版本)

1 概述(Overview) 2 DataFrames 2.1 入口:SQLContext(Starting Point: SQLContext) 2.2 创建DataFrames(Creating DataFrames) 2.3 DataFrame操作(DataFrame Operations) 2.4 运行SQL查询程序(Running SQL Queries Programmatically) 2.5 DataFrames与RDDs的相互转换(Interoperating with RDD

spark1.4加载mysql数据 创建Dataframe及join操作连接方法问题

首先我们使用新的API方法连接mysql加载数据 创建DF import org.apache.spark.sql.DataFrame import org.apache.spark.{SparkContext, SparkConf} import org.apache.spark.sql.{SaveMode, DataFrame} import scala.collection.mutable.ArrayBuffer import org.apache.spark.sql.hive.HiveC

Spark SQL1.3测试

Spark SQL 1.3 参考官方文档:Spark SQL and DataFrame Guide 概览介绍参考:平易近人.兼容并蓄——Spark SQL 1.3.0概览 DataFrame提供了一条联结所有主流数据源并自动转化为可并行处理格式的渠道,通过它Spark能取悦大数据生态链上的所有玩家,无论是善用R的数据科学家,惯用SQL的商业分析师,还是在意效率和实时性的统计工程师. 以一个常见的场景 -- 日志解析为例,有时我们需要用到一些额外的结构化数据(比如做IP和地址的映射),通常这样的

T4 生成实体和简单的CRUD操作

<#@ template debug="false" hostspecific="false" language="C#" #> <#@ assembly name="System.Core.dll" #> <#@ assembly name="System.Data.dll" #> <#@ assembly name="System.Data.DataS

封装类似thinkphp连贯操作数据库的Db类(简单版)。

<?php header("Content-Type:text/html;charset=utf-8"); /** *php操作mysql的工具类 */ class Db{ private $_db = null;//数据库连接句柄 private $_table = null;//表名 private $_where = null;//where条件 private $_order = null;//order排序 private $_limit = null;//limit限

类的连续调用方法

class a{ private $b = 0; public function c( $Num = 0 ) { $this->b = $Num; return $this; //关键就在这里,有这条就可以连续调用了, } public function d($d) { $this->b = $this->b+$d; return $this; } public function e(){ echo $this->b; } } //接下来是调用 $Obj = new a; $Obj