insert into table (a,b,c) select

本文为博主原创,转载请注明出处:

在项目中,需要统计数据,从基础表中的数据进行统计,并插入到汇总 表中,

(1)语句形式为:Insert into Table2(field1,field2,...) select value1,value2,... from Table1

或者:Insert into Table2 select  *  from Table1

注意:(1)要求目标表Table2必须存在,并且字段field,field2...也必须存在

(2)注意Table2的主键约束,如果Table2有主键而且不为空,则 field1, field2...中必须包括主键

(3)注意语法,不要加values,和插入一条数据的sql混了,不要写成:

Insert into Table2(field1,field2,...) values (select value1,value2,... from Table1)

应用实例展示:

 <insert id="addMonthStatistics" parameterType="com.statistics.model.MonthStatistics">
        INSERT INTO tbl_statistics_month(month,livePlayCount,vodPlayCount,liveFlow,vodFlow,storeSpace,storeResidueSpace)
        SELECT DATE_FORMAT(#{month}, ‘%Y%m‘) AS ‘month‘, SUM(t.livePlayCount) AS ‘livePlayCount‘, SUM(t.vodPlayCount) AS ‘vodPlayCount‘, SUM(t.liveFlow) AS ‘liveFlow‘, SUM(t.vodFlow) AS ‘vodFlow‘
            , SUM(t.storeSpace) AS ‘storeSpace‘, SUM(t.storeResidueSpace) AS ‘storeResidueSpace‘
        FROM (
            SELECT CASE u.playerType WHEN ‘1‘ THEN u.num ELSE 0 END AS ‘livePlayCount‘, CASE u.playerType WHEN ‘2‘ THEN u.num ELSE 0 END AS ‘vodPlayCount‘, CASE u.playerType WHEN ‘1‘ THEN u.flowNum ELSE 0 END AS ‘liveFlow‘, CASE u.playerType WHEN ‘2‘ THEN u.flowNum ELSE 0 END AS ‘vodFlow‘, 0 AS ‘storeSpace‘
                , 0 AS ‘storeResidueSpace‘
            FROM (
                SELECT playerType, COUNT(*) AS num, ifnull(SUM(bytesSend),0) AS ‘flowNum‘
                FROM tbl_player_statistics
                WHERE playerTime BETWEEN CONCAT(DATE_FORMAT(#{month},‘%Y-%m‘),‘-01 00:00:00‘) AND CONCAT(DATE_FORMAT(last_day(#{month}),‘%Y-%m-%d‘),‘ 23:59:59‘)
                GROUP BY playerType
            ) u
            UNION ALL
            SELECT 0 AS ‘livePlayCount‘, 0 AS ‘vodPlayCount‘, 0 AS ‘liveFlow‘, 0 AS ‘vodFlow‘, ifnull(SUM(fileSize),0) AS ‘storeSpace‘
                , 8192000 - ifnull(SUM(fileSize),0) AS ‘storeResidueSpace‘
            FROM tbl_person_space
        ) t
    </insert>

原文地址:https://www.cnblogs.com/zjdxr-up/p/8379610.html

时间: 2024-11-02 02:17:13

insert into table (a,b,c) select的相关文章

hive INSERT OVERWRITE table could not be cleaned up.

create table maats.account_channel ROW FORMAT DELIMITED FIELDS TERMINATED BY '^' STORED AS TEXTFILE as select distinct a.account,b.channel from maats.register a join maats.install b on a.device = b.device; INSERT OVERWRITE table maats.account_channel

CREATE TABLE 表名 AS SELECT 语句

1.新表不存在复制表结构即数据到新表 ? 1 2 create table new_table select * from old_talbe; 这种方法会将old_table中所有的内容都拷贝过来,用这种方法需要注意,new_table中没有了old_table中的primary key,Extra,auto_increment等属性,需要自己手动加,具体参看后面的修改表即字段属性.只复制表结构到新表 ? 1 2 3 4 5 6 # 第一种方法,和上面类似,只是数据记录为空,即给一个false

insert into table 插入多条数据

方法1: insert into `ttt` select '001','语文' union all select '002','数学' union all select '003','英语'; 方法2: INSERT INTO tab_comp VALUES(item1, price1, qty1), (item2, price2, qty2), (item3, price3, qty3); 方法3: INSERT INTO tab_comp(item1, price1, qty1) SELE

iview的table中嵌套input,select等

最近要做一个table,里边的内容比较特殊,全都是由下拉框和输入框等构成的,看到网上大部分人都是通过用render函数解决的,因为之前使用过iview的可编辑表格功能,是通过slot实现的,尝试着通过slot来 实现了下该功能,相比render,看起来友好多了. 不过还是有缺陷的,可以很明显的看到下边v-model中绑定的值,我并没有从slot-scope中取出,绑定里边的数据.而是选择直接手动绑定了页面的tableData,这是因为我发现如果使用scople中的row的数据绑定,会造成数据没有

MySQL INSERT插入条件判断:如果不存在则插入

摘要: 我们经常需要进行sql的批量插入,要求:该条记录不存在则插入,存在则不插入.如果使用一条INSERT语句实现呢? 普通的 INSERT INTO 插入: INSERT INTO card(cardno, cardnum) VALUES('1111', '100'); INSERT INTO card(cardno, cardnum) VALUES('2222', '200'); ... 对于普通的 INSERT 插入,如果想要保证不插入重复记录,我们只有对某个字段创建唯一约束实现(比如:

Sql Server系列:Insert语句

1. INSERT语法 [ WITH <common_table_expression> [ ,...n ] ] INSERT { [ TOP ( expression ) [ PERCENT ] ] [ INTO ] { <object> | rowset_function_limited [ WITH ( <Table_Hint_Limited> [ ...n ] ) ] } { [ ( column_list ) ] [ <OUTPUT Clause>

oracle 学习

删除用户,创建用户命令 drop user goda cascade:删除用户及其下所有对象,包括表 CREATE USER qdcenter     IDENTIFIED BY qdcenter     DEFAULT TABLESPACE data1     TEMPORARY TABLESPACE temp1     QUOTA unlimited ON data1     QUOTA unlimited ON temp1     QUOTA unlimited ON idx1     Q

Hive数据导入——数据存储在Hadoop分布式文件系统中,往Hive表里面导入数据只是简单的将数据移动到表所在的目录中!

转自:http://blog.csdn.net/lifuxiangcaohui/article/details/40588929 Hive是基于Hadoop分布式文件系统的,它的数据存储在Hadoop分布式文件系统中.Hive本身是没有专门的数据存储格式,也没有为数据建立索引,只需要在创建表的时候告诉Hive数据中的列分隔符和行分隔符,Hive就可以解析数据.所以往Hive表里面导入数据只是简单的将数据移动到表所在的目录中! Hive的几种常见的数据导入方式这里介绍四种:(1).从本地文件系统中

Hive优化总结

优化时,把hive sql当做map reduce程序来读,会有意想不到的惊喜. 理解hadoop的核心能力,是hive优化的根本.这是这一年来,项目组所有成员宝贵的经验总结. 长期观察hadoop处理数据的过程,有几个显著的特征: 1.不怕数据多,就怕数据倾斜. 2.对jobs数比较多的作业运行效率相对比较低,比如即使有几百行的表,如果多次关联多次汇总,产生十几个jobs,没半小时是跑不完的.map reduce作业初始化的时间是比较长的. 3.对sum,count来说,不存在数据倾斜问题.