SSD性能优化记录

在上一篇博文中,我设计了一个优化方法,方法从业务角度出发,将切图操作涉及到的性能路径剖析出来,分别进行优化,效果显著。

目前的情况是:一张ArcGIS武汉市城市影像图。该操作由79小时缩短至当前的67分钟。加速比为78倍。效果得到了业务人员满意。

这里我谈一下我的体会:

1、SSD拿来即用是可行,但是对于服务器来说,门道很深。首先是SSD的选择,有家用和

时间: 2024-08-29 21:09:01

SSD性能优化记录的相关文章

关于SSD性能优化

SSD和传统的磁盘在组织形式上不一样,磁盘有扇区,柱面,盘面的概念.而SSD flash存储完全不同,ssd由page,block,plane,die组成. linux内核把ssd当做一个块设备,和磁盘模型一样的块设备.SSD内部的FTL隐藏ssd page,block,plane,die的关系,使得OS无法专门进行优化. 1. 调整ssd暴漏给OS的扇区.磁道等信息是合适的 fdisk -H 224 -S 56 /dev/sdd 这里的-H参数指的是"磁头"数量,-S参数指的是每磁道

react首屏页面加载性能优化记录

一.webpack devtool devtool的值有好几个,根据自己的情况和环境的不同,选择合适的,一般打包的时候可以用:eval .eval-source-map或者cheap-eval-source-map.我这边打包时,直接设置成了:‘eval ’.具体可以去官网查看每个值的作用~ 二.如果使用的是antd框架,通过打包分析,你会发现有个icons文件500多k,有点大~  解决办法是: 1.随意找个地方建个.js文件,名称也随意~,比如是icons.js (当然要规范哈),用来按需引

MySQL单表百万数据记录分页性能优化

原文地址:http://www.cnblogs.com/lyroge/p/3837886.html MySQL单表百万数据记录分页性能优化 背景: 自己的一个网站,由于单表的数据记录高达了一百万条,造成数据访问很慢,Google分析的后台经常报告超时,尤其是页码大的页面更是慢的不行. 测试环境: 先让我们熟悉下基本的sql语句,来查看下我们将要测试表的基本信息 use infomation_schemaSELECT * FROM TABLES WHERE TABLE_SCHEMA = 'dbna

新产品为了效果,做的比较炫,用了很多的图片和JS,所以前端的性能是很大的问题,分篇记录前端性能优化的一些小经验。

第一篇:HTTP服务器 因tomcat处理静态资源的速度比较慢,所以首先想到的就是把所有静态资源(JS,CSS,image,swf) 提到单独的服务器,用更加快速的HTTP服务器,这里选择了nginx了,nginx相比apache,更加轻量级, 配置更加简单,而且nginx不仅仅是高性能的HTTP服务器,还是高性能的反向代理服务器. 目前很多大型网站都使用了nginx,新浪.网易.QQ等都使用了nginx,说明nginx的稳定性和性能还是非常不错的. 1. nginx 安装(linux) htt

MySQL 单表百万数据记录分页性能优化

来源:一颗卤蛋 链接:http://www.cnblogs.com/lyroge/p/3837886.html 背景: 自己的一个网站,由于单表的数据记录高达了一百万条,造成数据访问很慢,Google分析的后台经常报告超时,尤其是页码大的页面更是慢的不行. 测试环境: 先让我们熟悉下基本的sql语句,来查看下我们将要测试表的基本信息 use infomation_schemaSELECT * FROM TABLES WHERE TABLE_SCHEMA = ‘dbname’ AND TABLE_

MySQL单表百万数据记录分页性能优化,转载

背景: 自己的一个网站,由于单表的数据记录高达了一百万条,造成数据访问很慢,Google分析的后台经常报告超时,尤其是页码大的页面更是慢的不行. 测试环境: 先让我们熟悉下基本的sql语句,来查看下我们将要测试表的基本信息 use infomation_schemaSELECT * FROM TABLES WHERE TABLE_SCHEMA = 'dbname' AND TABLE_NAME = 'product' 查询结果: 从上图中我们可以看到表的基本信息: 表行数:866633平均每行的

Spark记录-Spark性能优化解决方案

Spark性能优化的10大问题及其解决方案 问题1:reduce task数目不合适解决方式:需根据实际情况调节默认配置,调整方式是修改参数spark.default.parallelism.通常,reduce数目设置为core数目的2到3倍.数量太大,造成很多小任务,增加启动任务的开销:数目太少,任务运行缓慢. 问题2:shuffle磁盘IO时间长解决方式:设置spark.local.dir为多个磁盘,并设置磁盘为IO速度快的磁盘,通过增加IO来优化shuffle性能: 问题3:map|red

oracle性能优化(项目中的一个sql优化的简单记录)

在项目中,写的sql主要以查询为主,但是数据量一大,就会突出sql性能优化的重要性.其实在数据量2000W以内,可以考虑索引,但超过2000W了,就要考虑分库分表这些了.本文主要记录在实际项目中,一个需要查询很慢的sql的优化过程,如果有更好的方案,请在下面留言交流. 很多文章都有关于sql优化的方法,这里就不一一陈述了.如果有需要可以查看博客:https://blog.csdn.net/linhaiyun_ytdx/article/details/79101122 SELECT T.YHBH,

记录一次bug解决过程:可维护性和性能优化

一.总结 使用某些变量的地方在2次以上的,强烈建议使用枚举值来维护变量,日后方便扩展. 查数据库的方法调用,能合并就净量去合并. 二.Bug描述 枚举变量的维护以及方法使用: public class UsedOnce { public static enum ruleDetailsEnum { SOURCEREGIN("原区域"), TARGETREGIN("目的区域"), SOURCECITY("原城市"), TARGETCITY("