MYSQL开发性能研究——批量插入的优化措施

一、我们遇到了什么问题

在标准SQL里面,我们通常会写下如下的SQL insert语句。

INSERT INTO TBL_TEST (id) VALUES(1);

 

很显然,在MYSQL中,这样的方式也是可行的。但是当我们需要批量插入数据的时候,这样的语句却会出现性能问题。例如说,如果有需要插入100000条数据,那么就需要有100000条insert语句,每一句都需要提交到关系引擎那里去解析,优化,然后才能够到达存储引擎做真的插入工作。

正是由于性能的瓶颈问题,MYSQL官方文档也就提到了使用批量化插入的方式,也就是在一句INSERT语句里面插入多个值。即,

INSERT INTO TBL_TEST (id) VALUES (1), (2), (3)

 

这样的做法确实也可以起到加速批量插入的功效,原因也不难理解,由于提交到服务器的INSERT语句少了,网络负载少了,最主要的是解析和优化的时间看似增多,但是实际上作用的数据行却实打实地多了。所以整体性能得以提高。根据网上的一些说法,这种方法可以提高几十倍。

然而,我在网上也看到过另外的几种方法,比如说预处理SQL,比如说批量提交。那么这些方法的性能到底如何?本文就会对这些方法做一个比较。

 

二、比较环境和方法

我的环境比较苦逼,基本上就是一个落后的虚拟机。只有2核,内存为6G。操作系统是SUSI Linux,MYSQL版本是5.6.15。

可以想见,这个机子的性能导致了我的TPS一定非常低,所以下面的所有数据都是没有意义的,但是趋势却不同,它可以看出整个插入的性能走向。

由于业务特点,我们所使用的表非常大,共有195个字段,且写满(每个字段全部填满,包括varchar)大致会有略小于4KB的大小,而通常来说,一条记录的大小也有3KB

由于根据我们的实际经验,我们很肯定的是,通过在一个事务中提交大量INSERT语句可以大幅度提高性能。所以下面的所有测试都是建立在每插入5000条记录提交一次的做法之上。

最后需要说明的是,下面所有的测试都是通过使用MYSQL C API进行的,并且使用的是INNODB存储引擎。

 

三、比较方法

 

理想型测试(一)——方法比较

目的:找出理想情况下最合适的插入机制

关键方法:

1. 每个进/线程按主键顺序插入

2. 比较不同的插入方法

3. 比较不同进/线程数量对插入的影响

 

*“普通方法”指的是一句INSERT只插入一个VALUE的情况。

*“预处理SQL”指的是使用预处理MYSQL C API的情况。

* “多表值SQL(10条)”是使用一句INSERT语句插入10条记录的情况。为什么是10条?后面的验证告诉了我们这样做性能最高。

结论,很显然,从三种方法的趋势上来看,多表值SQL(10条)的方式最为高效

 

理想型测试(二)——多表值SQL条数比较

 

 

很显然,在数据量提高的情况下,每条INSERT语句插入10条记录的做法最为高效。

 

理想型测试(三)——连接数比较

 

 

结论:在2倍与CPU核数的连接和操作的时候,性能最高

 

一般性测试—— 根据我们的业务量进行测试

目的:最佳插入机制适合普通交易情况?

关键方法:

1. 模拟生产数据(每条记录约3KB)

2. 每个线程主键乱序插入

 

很显然,如果是根据主键乱序插入的话,性能会有直线下降的情况。这一点其实和INNODB的内部实现原理所展现出来的现象一致。但是仍然可以肯定的是,多表值SQL(10条)的情况是最佳的。

 

压力测试

目的:最佳插入机制适合极端交易情况?

关键方法:

1. 将数据行的每一个字段填满(每条记录约为4KB)

2. 每个线程主键乱序插入

结果和我们之前的规律类似,性能出现了极端下降。并且这里验证了随着记录的增大(可能已经超过了一个page的大小,毕竟还有slot和page head信息占据空间),会有page split等现象,性能会下降。

 

四、结论

根据上面的测试,以及我们对INNODB的了解,我们可以得到如下的结论。

?采用顺序主键策略(例如自增主键,或者修改业务逻辑,让插入的记录尽可能顺序主键)

?采用多值表(10条)插入方式最为合适

?将进程/线程数控制在2倍CPU数目相对合适

 

五、附录

我发现网上很少有完整的针对MYSQL 预处理SQL语句的例子。这里给出一个简单的例子。

--建表语句
CREATE TABLE tbl_test
(
    pri_key  varchar(30),
    nor_char char(30),
    max_num DECIMAL(8,0),
    long_num DECIMAL(12, 0),
    rec_upd_ts TIMESTAMP
);

 

/*====================================================*/

#include <string.h>
#include <iostream>
#include <mysql.h>
#include <sys/time.h>
#include <sstream>
#include <vector>

using namespace std;

#define STRING_LEN 30

char       pri_key                       [STRING_LEN]= "123456";
char       nor_char                      [STRING_LEN]= "abcabc";
char       rec_upd_ts                    [STRING_LEN]= "NOW()";  

bool SubTimeval(timeval &result, timeval &begin, timeval &end)
{
    if ( begin.tv_sec>end.tv_sec ) return false;

    if ( (begin.tv_sec == end.tv_sec) && (begin.tv_usec > end.tv_usec) )
        return   false;

    result.tv_sec = ( end.tv_sec - begin.tv_sec );
    result.tv_usec = ( end.tv_usec - begin.tv_usec );   

    if (result.tv_usec<0) {
        result.tv_sec--;
        result.tv_usec+=1000000;}
    return true;
}

int main(int argc, char ** argv)
{
    INT32 ret = 0;
    char errmsg[200] = {0};
    int sqlCode = 0;

    timeval tBegin, tEnd, tDiff;

    const char* precompile_statment2 = "INSERT INTO `tbl_test`( pri_key, nor_char, max_num, long_num, rec_upd_ts) VALUES(?, ?, ?, ?, ?)";

    MYSQL conn;
    mysql_init(&conn);

    if (mysql_real_connect(&conn, "127.0.0.1", "dba", "abcdefg", "TESTDB", 3306, NULL, 0) == NULL)
    {
        fprintf(stderr, " mysql_real_connect, 2 failed\n");
        exit(0);
    }

    MYSQL_STMT    *stmt = mysql_stmt_init(&conn);
    if (!stmt)
    {
      fprintf(stderr, " mysql_stmt_init, 2 failed\n");
      fprintf(stderr, " %s\n", mysql_stmt_error(stmt));
      exit(0);
    }

    if (mysql_stmt_prepare(stmt, precompile_statment2, strlen(precompile_statment2)))
    {
      fprintf(stderr, " mysql_stmt_prepare, 2 failed\n");
      fprintf(stderr, " %s\n", mysql_stmt_error(stmt));
      exit(0);
    }

    int i = 0;
    int max_num = 3;
    const int FIELD_NUM = 5;
    while (i < max_num)
    {
        //MYSQL_BIND    bind[196] = {0};
        MYSQL_BIND    bind[FIELD_NUM];
        memset(bind, 0, FIELD_NUM * sizeof(MYSQL_BIND));

        unsigned long str_length = strlen(pri_key);
        bind[0].buffer_type   = MYSQL_TYPE_STRING;
        bind[0].buffer        = (char *)pri_key;
        bind[0].buffer_length = STRING_LEN;
        bind[0].is_null       = 0;
        bind[0].length        = &str_length;

        unsigned long str_length_nor = strlen(nor_char);
        bind[1].buffer_type   = MYSQL_TYPE_STRING;
        bind[1].buffer        = (char *)nor_char;
        bind[1].buffer_length = STRING_LEN;
        bind[1].is_null       = 0;
        bind[1].length        = &str_length_nor;

        bind[2].buffer_type   = MYSQL_TYPE_LONG;
        bind[2].buffer        = (char*)&max_num;
        bind[2].is_null       = 0;
        bind[2].length        = 0;

        bind[3].buffer_type   = MYSQL_TYPE_LONG;
        bind[3].buffer        = (char*)&max_num;
        bind[3].is_null       = 0;
        bind[3].length        = 0;

        MYSQL_TIME  ts;
        ts.year= 2002;
        ts.month= 02;
        ts.day= 03;
        ts.hour= 10;
        ts.minute= 45;
        ts.second= 20;

        unsigned long str_length_time = strlen(rec_upd_ts);
        bind[4].buffer_type   = MYSQL_TYPE_TIMESTAMP;
        bind[4].buffer        = (char *)&ts;
        bind[4].is_null       = 0;
        bind[4].length        = 0;

        if (mysql_stmt_bind_param(stmt, bind))
        {
            fprintf(stderr, " mysql_stmt_bind_param, 2 failed\n");
            fprintf(stderr, " %s\n", mysql_stmt_error(stmt));
            exit(0);
        }

        cout << "before execute\n";
        if (mysql_stmt_execute(stmt))
        {
          fprintf(stderr, " mysql_stmt_execute, 2 failed\n");
          fprintf(stderr, " %s\n", mysql_stmt_error(stmt));
          exit(0);
        }
        cout << "after execute\n";

        i++;
    }

    mysql_commit(&conn);

    mysql_stmt_close(stmt);

    return 0;
}

MYSQL开发性能研究——批量插入的优化措施

时间: 2025-01-18 16:06:02

MYSQL开发性能研究——批量插入的优化措施的相关文章

MYSQL开发性能研究&mdash;&mdash;INSERT,REPLACE,INSERT-UPDATE性能比较

一.为什么要有这个实验 我们的系统是批处理系统,类似于管道的架构.而各个数据表就是管道的两端,而我们的程序就类似于管道本身.我们所需要做的事情无非就是从A表抽取数据,经过一定过滤.汇总等操作放置到B表.如果出现了错误,那么就从重新跑这一个管道.所以说,我们的系统其实根本就不要什么事务性,无非就是挂了把表给TRUNCATE(或者有条件地DELETE)一下,然后重跑就行了. 这样一来,对于select语句就相对比较容易,基本上不需要做JOIN操作.然而对于写操作就有一些要求.比如说,需要处理主键重复

Mysql千万级别数据批量插入,性能提高

-----------------------------------------------------------方式1 ---------------------------------------------------------------------------------------- 第一步:配置my.ini文件 文件中配置 bulk_insert_buffer_size=120M 或者更大 将insert语句的长度设为最大. Max_allowed_packet=1M Net

mysql 开发进阶篇系列 23 应用层优化与查询缓存

一.概述 前面章节介绍了很多数据库的优化措施,但在实际生产环境中,由于数据库服务器本身的性能局限,就必须要对前台的应用来进行优化,使得前台访问数据库的压力能够减到最小. 1. 使用连接池 对于访问数据库来说,建立连接的代价比较昂贵,因为连接到数据库服务器需要经历多个步骤如:建立物理通道,服务器进行初次握手,分析连接字符串信息,由服务器对连接进行身份验证等.因此,有必要建立"连接池"以提高访问的性能.连接池中的连接已经预先创建好了,可以直接分配给应用层使用,减少了创建新连接所消耗的资源,

java mysql大数据量批量插入与流式读取分析

总结下这周帮助客户解决报表生成操作的mysql 驱动的使用上的一些问题,与解决方案.由于生成报表逻辑要从数据库读取大量数据并在内存中加工处理后在 生成大量的汇总数据然后写入到数据库.基本流程是 读取->处理->写入. 1 读取操作开始遇到的问题是当sql查询数据量比较大时候基本读不出来.开始以为是server端处理太慢.但是在控制台是可以立即返回数据的.于是在应用 这边抓包,发现也是发送sql后立即有数据返回.但是执行ResultSet的next方法确实阻塞的.查文档翻代码原来mysql驱动默

JDBC批量插入数据优化,使用addBatch和executeBatch

>>.在之前的玩转JDBC打造数据库操作万能工具类JDBCUtil,加入了高效的数据库连接池,利用了参数绑定有效防止SQL注入中其实忽略了一点,那就是SQL的批量插入的问题,如果来个for循环,执行上万次,肯定会很慢,那么,如何去优化呢? https://www.awaimai.com/841.html 一.用 preparedStatement.addBatch()配合preparedStatement.executeBatch()去批量插入 1 /** 2 * 执行数据库插入操作 4 *

用python操作mysql数据库(之批量插入数据)

#!/usr/bin/env python # -*- coding: utf-8 -*- import MySQLdb #建立连接 conn = MySQLdb.connect(host='127.0.0.1',user='root',passwd='1qaz#EDC',db='test_db') cur = conn.cursor() #对数据进行操作 li = [('tanzhenx','shaoguan'),('huangmengdie','shaoguan')] #定义一个列表,列表中

mysql 批量插入数据 优化

对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长.特别像报表系统,每天花费在数据导入上的时间可能会长达几个小时或十几个小时之久.因此,优化数据库插入性能是很有意义的. 经过对MySQL innodb的一些性能测试,发现一些可以提高insert效率的方法,供大家参考参考. 1. 一条SQL语句插入多条数据. 常用的插入语句如: MySQL 1 2 3 4 INSERT INTO `insert_table` (`datetime`, `uid`, `content

mysql妙用:批量插入记录,遇到重复记录则为自动更新

在更新大量数据时可能同时遇到两个问题: 如果每条更新执行一次sql性能很低,也容易造成阻塞: 批量更新时又有可能遇到主键重复的问题 使用 ON DUPLICATE KEY UPDATE 一条sql解决批量更新和主键重复问题(id为主键) INSERT INTO mytable(id,pid,ele,anim)  VALUES (?,?,?,?),(?,?,?,?),(?,?,?,?) ON DUPLICATE KEY UPDATE pid=VALUES(pid),ele=VALUES(ele)

使用JDBC在MySQL数据库中快速批量插入数据

使用JDBC连接MySQL数据库进行数据插入的时候,特别是大批量数据连续插入(10W+),如何提高效率呢? 在JDBC编程接口中Statement 有两个方法特别值得注意: void addBatch() throws SQLException Adds a set of parameters to this PreparedStatement object's batch of commands. int[] executeBatch() throws SQLException Submits