MYSQL数据库导入大数据量sql文件失败的解决方案

1.在讨论这个问题之前首先介绍一下什么是“大数据量sql文件”。

导出sql文件。选择数据库-----右击选择“转储SQL文件”-----选择"结构和数据"  。保存文件db_mras.sql文件。

2.导入sql文件。在MYSQL中新建数据库db_mras。选择数据库-----右击选择“运行SQL文件”-----选择文件db_mras.sql,运行。

现在发现运行失败,提示错误“MySQL server has gone away” 。针对该问题提出如下解决方案:

提示该错误意思是:客户端与mysql的链接断开了,原因一般为sql运行时间过长或者sql文件太大。

排查问题原因:

(1)mysql服务宕了

运行命令:show  global status like  ‘uptime‘;    如果uptime的值很大 表明最近mysql服务没有重启。  若日志也没有相关信息,表明服务没有重启过,可以排除这个可能了。

(2)mysql链接超时

运行命令:show global variables  like ‘%timeout‘; 查看运行结果中wait_timeout的值,一般为28800。代表mysql在误操作28800秒之后链接会关闭。

(3)mysql文件过大

运行命令:show global variables  like ‘max_allowed_packet‘;   查看运行结果max_allowed_packet的值 ,如果过小,需要调整大。

解决方法:

在mysql的my.ini文件末尾加如下几句话: wait_timeout=2880000;     interactive_time=2880000;    max_allowed_packet=16M;

其中max_allowed_packet代表控制其缓存区的最大长度。 wait_timeout代表无操作链接等待时间。

修改完以上参数之后重启mysql服务。

查看是否修改成功:运行命令:show global variables  like ‘%timeout‘;      show global variables  like ‘max_allowed_packet‘;

小贴士:如果找不到my.ini文件可以运行命令:mysql --help|grep my.ini 来查找文件路径。

注意:如果以上办法没有解决你的问题,你还需要查看你的mysql文件安装盘的空间是否足够。

时间: 2024-10-14 08:35:32

MYSQL数据库导入大数据量sql文件失败的解决方案的相关文章

MySQL学习笔记_12_Linux下C++/C连接MySQL数据库(二) --返回数据的SQL

 Linux下C++/C连接MySQL数据库(二) --返回数据的SQL 引: 返回数据的SQL是指通过查询语句从数据库中取出满足条件的数据记录 从MySQL数据库值哦功能检索数据有4个步骤: 1)发出查询 2)检索数据 3)处理数据 4)整理所需要的数据 用mysql_query()发出查询,检索数据可以使用mysql_store_result()或mysql_use_result(),取决与怎样检索数据,接着是调用mysql_fetch_row()来处理数据,最后,还必须调用mysql_

mysql innobackupex xtrabackup 大数据量 备份 还原(转)

原文:http://blog.51yip.com/mysql/1650.html 作者:海底苍鹰 大数据量备份与还原,始终是个难点.当MYSQL超10G,用mysqldump来导出就比较慢了.在这里推荐xtrabackup,这个工具比mysqldump要快很多. 一.Xtrabackup介绍 1,Xtrabackup是什么 Xtrabackup是一个对InnoDB做数据备份的工具,支持在线热备份(备份时不影响数据读写),是商业备份工具InnoDB Hotbackup的一个很好的替代品. Xtra

大数据量业务订制和解决方案思考

大数据量的系统要经过对数据的用处分析和数据周期分析,以寻求更好的解决方案. 1:业务系统的基础数据,如人员基础信息(基础资料,权限等).数据可以KEEP在内存中.数据要分散存储.基础数据逻辑要简洁.使用增量更新.高峰期来临前提前更新基础数据 2:热数据处理此部分数据是各方面环境会频繁使用到的数据 对这部分数据的存储,比如 使用不一样的存储方式,比如建立高效的索引,使用SSD盘,或者使用mysql数据库存储 3:历史数据的迁移 近期数据 此类数据是需要最近频繁使用或者调用的数据,对OLTP系统而言

【MySQL】MySQL中针对大数据量常用技术_创建索引+缓存配置+分库分表+子查询优化(转载)

原文地址:http://blog.csdn.net/zwan0518/article/details/11972853 目录(?)[-] 一查询优化 1创建索引 2缓存的配置 3slow_query_log分析 4分库分表 5子查询优化 二数据转移 21插入数据 如今随着互联网的发展,数据的量级也是撑指数的增长,从GB到TB到PB.对数据的各种操作也是愈加的困难,传统的关系性数据库已经无法满足快速查询与插入数据的需求.这个时候NoSQL的出现暂时解决了这一危机.它通过降低数据的安全性,减少对事务

Ubantu下如何安装mysql数据库,以及如何备份sql文件和运行sql文件!

ubuntu上安装mysql其实比起window下面安装还简单,就下面几条命令,中间只需输入一次密码,其他的操作都有系统自动完成. 1. sudo apt-get install mysql-server 2. apt-get isntall mysql-client 3.  sudo apt-get install libmysqlclient-dev 安装好mysql之后,检查是否安装成功:sudo netstat -tap | grep mysql 检查成功后,那就是做做简单的测试了 my

大数据量.csv文件导入SQLServer数据库

前几天拿到了一个400多M的.csv文件,在电脑上打开要好长时间,打开后里面的数据都是乱码.因此,做了一个先转码再导入数据库的程序.100多万条的数据转码+导入花了4分钟,感觉效率还可以.各位网友有更好的方法,请在留言中指点下,一起学习学习,多谢了. static void Main(string[] args) { int count = 0; string readerPath=@"C:\Users\Administrator\Desktop\readerDemo.csv"; st

关于poi导出大数据量EXCEL导出缓慢的解决方案--生成xml格式的表格文件

今天遇到了一个POI导出EXCEL文件结果文件大小太大导致系统运行缓慢的问题.想到了使用输出XML格式的表格来完成. 首先,我们需要理解一下为什么POI导出EXCEL文件会导致文件大小变大.最主要的原因应该是POI变成中经常会对无关的单元格设置属性.例如:一个EXCEL工作表的最大列数为256,我们只使用10列.而编程时经常会将256列全部渲染格式,造成很大的资源浪费.当然应该还有其他很多原因也会造成表格变大. 使用这个方案的前提是对于表格的格式要求不高,因为使用的是自己的工具,没有POI优化了

mysql数据库导入导出数据

导入数据: 形式:load data infile '路径' into table xxx;outfile:将信息输出到文件上(自动创建文件,不可以重新文件,为了保护文件)select * from hd_cate; select * into outfile 'e:/demo/one' from hd_cate;生成的文件格式;默认的,采用行来区分记录,而采用制表符,来区分字段为了满足某种特别的需求,会采用不同的分割方式,支持,在导出数据时,设置记录,与字段的分隔符 通过如下的选项fields

MySQL数据库如何解决大数据量存储问题

利用MySQL数据库如何解决大数据量存储问题? 各位高手您们好,我最近接手公司里一个比较棘手的问题,关于如何利用MySQL存储大数据量的问题,主要是数据库中的两张历史数据表,一张模拟量历史数据和一张开关量历史数据表,这两张表字段设计的很简单(OrderNo,Value,DataTime).基本上每张表每天可以增加几千万条数据,我想问如何存储数据才能不影响检索速度呢?需不需要换oracle数据库呢?因为我是数据库方面的新手,希望可以说的详细一点,万分感谢!!?-0-#暂时可以先考虑用infobri