为了实验大数据的导出,我们这里先自已创建一张大表,表结构如下:
CREATE TABLE `tb_users` ( `id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT ‘用户ID‘, `name` varchar(32) DEFAULT ‘‘ COMMENT ‘用户名‘, `age` tinyint(3) DEFAULT ‘0‘ COMMENT ‘用户年龄‘, `desc` varchar(255) DEFAULT ‘‘ COMMENT ‘用户描述‘, `phone` varchar(11) DEFAULT ‘‘ COMMENT ‘用户手机‘, `qq` varchar(16) DEFAULT ‘‘ COMMENT ‘用户QQ‘, `email` varchar(64) DEFAULT ‘‘ COMMENT ‘用户邮箱‘, `addr` varchar(255) DEFAULT ‘‘ COMMENT ‘用户地址‘, PRIMARY KEY (`id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
然后写个php脚本往这个表插入数据,代码如下:
<?php set_time_limit(0); ini_set(‘memory_limit‘, ‘128M‘); //使用TP3.2的String类,php7下会报错,注意把类名换一下 require ‘./String.class.php‘; use Org\Util\NewString; $begin = microtime(true); $db = new mysqli(‘127.0.0.1‘, ‘root‘, ‘‘, ‘test‘); if($db->connect_error) { die(‘connect error‘); } //数据插入语句 $insSql = ‘‘; //一百万数据,分200步,每步插入5000条 $step = 200; $nums = 5000; for($s = 0; $s < $step; ++$s) { $insSql = ‘INSERT INTO tb_users VALUES‘; for($n = 0; $n < $nums; ++$n) { $name = NewString::randString(3, 4); $age = mt_rand(1, 120); $desc = NewString::randString(64, 4); $phone = NewString::randString(11, 1); $qq = NewString::randString(13, 1); $email = $qq . ‘@qq.com‘; $addr = NewString::randString(128, 4); $insSql .= "(NULL, ‘{$name}‘, $age, ‘{$desc}‘, ‘{$phone}‘, ‘{$qq}‘, ‘{$email}‘, ‘{$addr}‘),"; } $insSql = rtrim($insSql, ‘,‘); $db->query($insSql); } $end = microtime(true); echo ‘用时:‘, $end - $begin; $db->close();
里面用到的TP3.2的String类大家自行上TP官网下载。整个用时2个多小时,最后数据大小662M。
现在我们用php提供的fputcsv来导出这一百万的数据,原理就是打开一个标准输出流,然后把数据按一万条来分割,每一万条就刷新缓冲区。
<?php set_time_limit(0); ini_set(‘memory_limit‘, ‘128M‘); $fileName = date(‘YmdHis‘, time()); header(‘Content-Type: application/vnd.ms-execl‘); header(‘Content-Disposition: attachment;filename="‘ . $fileName . ‘.csv"‘); $begin = microtime(true); //打开php标准输出流 //以写入追加的方式打开 $fp = fopen(‘php://output‘, ‘a‘); $db = new mysqli(‘127.0.0.1‘, ‘root‘, ‘‘, ‘test‘); if($db->connect_error) { die(‘connect error‘); } //我们试着用fputcsv从数据库中导出1百万的数据 //我们每次取1万条数据,分100步来执行 //如果线上环境无法支持一次性读取1万条数据,可把$nums调小,$step相应增大。 $step = 100; $nums = 10000; //设置标题 $title = array(‘ID‘, ‘用户名‘, ‘用户年龄‘, ‘用户描述‘, ‘用户手机‘, ‘用户QQ‘, ‘用户邮箱‘, ‘用户地址‘); foreach($title as $key => $item) { $title[$key] = iconv(‘UTF-8‘, ‘GBK‘, $item); } //将标题写到标准输出中 fputcsv($fp, $title); for($s = 1; $s <= $step; ++$s) { $start = ($s - 1) * $nums; $result = $db->query("SELECT * FROM tb_users ORDER BY id LIMIT {$start},{$nums}"); if($result) { while($row = $result->fetch_assoc()) { foreach($row as $key => $item) { //这里必须转码,不然会乱码 $row[$key] = iconv(‘UTF-8‘, ‘GBK‘, $item); } fputcsv($fp, $row); } $result->free(); //每1万条数据就刷新缓冲区 ob_flush(); flush(); } } $end = microtime(true); echo ‘用时:‘, $end - $begin;
整个过程用时5分钟,最终生成的csv文件大小420M。
对于如何用phpexcel导出大数据,并没有什么比较好的方案,phpexcel提供的一些缓存方法,数据压缩,虽然内存使用小了,但所用时间则加长了,时间换空间,显然并不是最好的方案。比较靠谱的方法还是生成多个下载链接地址,把你要下载的数据,以get形式传递当前页数,后台进行数据分页然后导出。
<a href="/downSearchData.php?参数1=值1&参数2=值2&page=1">下载汇总结果1</a> <a href="/downSearchData.php?参数1=值1&参数2=值2&page=2">下载汇总结果2</a> <a href="/downSearchData.php?参数1=值1&参数2=值2&page=3">下载汇总结果3</a>
比如你有一个查询数据表单,ID为searchFrm,然后你想把导出数据按1万条分割(phpexcel一次导出1万条是没有问题的,效率还行)
<form id="searchFrm"> 姓名<input type="text" name="uname"> <input type="button" id="searchDataBtn" value="导出汇总结果"> </form> <div id="searchDataList"></div> <script type="script"> $("#searchDataBtn").on("click", function() { var params = $("#searchFrm").serialize(); //获取查询数据的条数 $.get("/getSearchDataRows?" + params, function(data) { var downDataList = ""; if(data["rows"]) { //rows是数据总条数,pageSize是一页多少条 var pageNum = Math.ceil(data["rows"] / data["pageSize"]); for(var i = 1; i <= pageNum; ++i) { downDataList += "<a href=‘/downSearchData.php?‘" + params + "&page=" + i + ">下载汇总结果" + i + "</a> "; } $("#searchDataList").html(downDataList); } else { $("#searchDataList").text("没有数据"); } }, "json"); return false; }); </script>
时间: 2024-10-03 23:28:59