Foreach嵌套Foreach速度慢优化方案

有时候这样的效率还可以,但是只要牵涉到操作数据库,那就GAMEOVER。。

最近在维护项目,一个Foreach循环,4分半才能出来结果。

代码:


foreach ($content as $key => $val) {

$user = $userModel->where(array(‘username‘=>$val))->Field(‘id,username‘)->find();

if ($user) {

//查找群里是否存在

if(!$ck_group_userModel->where(array(‘uid‘=>$user[‘id‘]))->Field(‘uid‘)->find()){

$data[] = array(‘id‘=>$user[‘id‘],‘username‘=>$user[‘username‘]);

}

}else{

$id = $userModel->add(array(‘username‘=>$val,‘password‘=>1234,‘pid‘=>9,‘type‘=>3));

$data[] = array(‘id‘=>$id,‘username‘=>$val);

}

}

查询时候在群中这个操作极慢!!!数据库已经添加索引。。。

考虑用户量太大,而且没有缓冲机制。只能一次次读库。

修改优化方案:

将循环查询和插入改为批量操作。减少操作数据库次数。

优化代码:


$userModel = M(‘user‘);

$ck_group_userModel = M(‘ck_group_user‘);

$data = array();

$where[‘username‘] = array(‘in‘,$content);

$user = $userModel->where($where)->Field(‘id,username‘)->select();

//根据java接口用户名,批量查询用户是否存在

for($i=0;$i<count($user);$i++){

$userid[$i]=$user[$i][‘id‘];

$newuser[$i]=$user[$i][‘username‘];

}

$newuser = array_flip($newuser);

$newuser = array_flip($newuser);//去重

$nouser = array_diff($content,$newuser);//不存在的用户

if($nouser){//用户不存在

foreach ($nouser as $key => $val) {

$dataList[] = array(‘username‘=>$val,‘password‘=>‘wanxue‘,‘pid‘=>9,‘type‘=>3);//要批量插入的数据

}

$userModel->addAll($dataList);

$con1[‘username‘] = array(‘in‘,$nouser);

$con1[‘pid‘] = array(‘eq‘,$college_name[‘region_id‘]);

$data = $userModel->where($con1)->Field(‘id,username‘)->select();            

}else{

//查找群里是否存在

$con2[‘uid‘] = array(‘in‘,$userid);

$ingroup = $ck_group_userModel->distinct(true)->Field(‘uid‘)->select();

for($i=0;$i<count($ingroup);$i++){

$ingroup[$i]=$ingroup[$i][‘uid‘];

}

$nogroup = array_diff($userid,$ingroup);

$con3[‘id‘] = array(‘in‘,$nogroup);

$data = $userModel->where($con3)->Field(‘id,username‘)->select();

}

优化后3S出来结果。

时间: 2024-10-05 23:08:55

Foreach嵌套Foreach速度慢优化方案的相关文章

if-else嵌套过多时的优化方案

//if-else嵌套过多时的优化方案 在垒代码的时候经常会遇到 if-else 的嵌套判断,就是下一个判断依赖于上一个判断的结果,其基本的表现形式为if(){//first judge if(){//second //do something }else{ if(){//third //do something }else{ //do something } }}else{ //do something} 当嵌套的个数不是太多的时候,看上去也不是太乱,顺着每个判断写下来也不会太困难,但是当嵌套

mybatis 注解写法 多层嵌套foreach,调用存储过程,批量插入数据

1 @Select("<script>" + 2 "DECLARE @edi_Invoice_Details edi_Invoice_Details;" + 3 "DECLARE @edi_Invoice_OrderItem edi_Invoice_OrderItem;" + 4 5 "INSERT INTO @edi_Invoice_Details (" + 6 "oldso,so,po,invoice

web前端优化方案(Yahoo)

目录(分7类,共35条): [内容]尽量减少HTTP请求数    [服务器]使用CDN(Content Delivery Network)    [服务器]添上Expires或者Cache-Control HTTP头    [服务器]Gzip组件    [css]把样式表放在顶部    [js]把脚本放在底部    [css]避免使用CSS表达式    [js, css]把JavaScript和CSS放到外面    [内容]减少DNS查找    [js, css]压缩JavaScript和CSS

Unity学习-优化_卡顿原因定位以及优化方案

除了Unity的一些组件优化技巧之外,更多的细节处于代码层面上 最近学习优化,看到一篇文章,写的很详细,从底层原理到我们 的实际处理,都有一些非常好的建议,可以推荐给小伙伴们看看 https://www.jianshu.com/p/289de89a6609 ===========如何定位程序的哪一个环节产生了过大的开销============ 使用Uinty的Profiler工具,可以比较精准快速的定位程序的哪一个位置产生了大开销 首先在build setting里面勾选Autoconnect

大型php网站性能和并发访问优化方案

网站性能优化对于大型网站来说非常重要,一个网站的访问打开速度影响着用户体验度,网站访问速度慢会造成高跳出率,小网站很好解决,那对于大型网站由于栏目多,图片和图像都比较庞大,那该怎么进行整体性能优化呢?本文为你提供一份大型php网站性能和并发访问优化方案. 一.大型网站性能提高策略: 大型网站,比如门户网站,在面对大量用户访问.高并发请求方面,基本的解决方案集中在这样几个环节:使用高性能的服务器.高性能的数据库.高效率的编程语言.还有高性能的Web容器.这几个解决思路在一定程度上意味着更大的投入.

前端性能优化方案

前端开发性能优化方案 在JS中尽量减少闭包的使用(原因:闭包会产生不释放的栈内存) A:循环给元素做事件绑定的时候,尽可能的把后期需要的信息(例如索引)存储到元素的自定义属性上,而不是创建闭包存储 B:可以在最外层形成一个闭包,把一些后续需要的公共信息进行存储,而不是每一个方法都创建闭包(例如单例模式) C:尽可能的手动释放不被占用的内存 ... 尽量合并CSS和JS文件(把需要引入的CSS合并为一个,JS也是合并为一个),原理是在减少HTTP请求次数,尽可能的把合并后的代码进行压缩,减小HTT

针对MySQL大表优化方案

详解MySQL大表优化方案 (1).字段 (2).索引 (3).规范查询SQL (4).存储引擎 (5).mysql配置参数优化 (6).mysql读写分离 (7).分区和分表 单表优化: 当单表的数据不是一直在暴增,不建议使用拆分,拆分会带来逻辑,部署,运维的各种复杂度,一般以整型值为主的表在千万级以下,字符串为主的表在五百万以下是没有太大问题的.而事实上很多时候MySQL单表的性能依然有不少优化空间,甚至能正常支撑千万级以上的数据量 (1).字段 l 尽量使用TINYINT.SMALLINT

mysql 性能优化方案 (转)

网 上有不少MySQL 性能优化方案,不过,mysql的优化同sql server相比,更为麻烦与复杂,同样的设置,在不同的环境下 ,由于内存,访问量,读写频率,数据差异等等情况,可能会出现不同的结果,因此简单地根据某个给出方案来配置mysql是行不通的,最好能使用 status信息对mysql进行具体的优化. mysql> show global status; 可以列出mysql服务器运行各种状态值,另外,查询mysql服务器配置信息语句: mysql> show variables; 一

百度没出新算法之前这种最好的的优化方案

百度没出新算法之前这种最好的的优化方案:看到这个标题我相信大家很多人都会呲之以鼻的因为都自己心里感觉这人太装B了吧,谁敢说他的优化方案是最厉害的,首先这只是我感觉的. 自从绿萝算法更新以后咱们这个时候再去更新一篇文章,百度就不会去再从他原先有的数据库里面寻找了,因为这样的话太麻烦太坑爹了,就像一个我们的汶川大地震后的拯救工作太浩大了,就和研究中心里面说的一样,对一篇文章中,抓住10个中心重点就可以判断文章的原创性,伪原创需要的就是知道文章中心重点词,打个比方就像真猴子和假猴子一样万变不离其宗,伪