使用vux打包文件过大的解决方案

  项目上线了,发现页面加载过慢,追其原因,发现打包后文件也依然2M大小,然后发现了vux是个大坑,部分vue组件居然会把整个vux引进去。

通过测试发现:  

import {} from ‘vux‘

这样虽然使用的vux组件的样式没有渲染上去,实际整个vux都被引入进来了。。。好坑

之前我的代码是

  import {Blur,Cell,Range,Toast ,Group } from ‘vux‘

结果通过webpack打包后js逼近两兆,实在是太大了。当时考虑是不是因为vue-video-player(封装的video.js组件)影响到了,后来发现打包后的文件居然还有vux其他组件部分的代码

static/js/2.b6c3ae2e.js    1.98 MB       2  [emitted]

那么问题来,怎么解决。直接用最笨的方法引入需要的组件,发现完美的解决了这个问题

import Blur from ‘vux/src/components/blur/index.vue‘
import Cell from ‘vux/src/components/cell/index.vue‘
import Range from ‘vux/src/components/range/index.vue‘
import Toast from ‘vux/src/components/toast/index.vue‘
import Group from ‘vux/src/components/group/index.vue‘

static/js/3.02d7c08f.js     488 kB       3  [emitted]

打包后直接小了一兆多,事实证明还是不要偷懒 ‘(*>﹏<*)′

时间: 2024-11-08 21:45:02

使用vux打包文件过大的解决方案的相关文章

21.Vue---npm run build 项目打包文件过大(体积优化)

在项目打包完成后,经常会遇到一些文件过大或者一些路径地址不对的问题从而导致项目加载缓慢以及一些图片加载不出来或者一些其他问题的产生.根据自己打包后遇到的一些问题在这里记录一下,以防下次遇到后还的麻烦性的查找,唉??~~~,就是懒,哈哈. (注:本文呢我就写一些遇到的问题和一些解决的方法,具体的实现过程,我想各位应该都查阅过一些博客了,我就附上参考链接吧!??这博主Realy lazy!!!) 一.vender文件过大,或者时app.js文件很大,又或者路径地址不对: 1.不常用的库的CDN方式引

webpack打包react,防止打包文件过大

生产环境下关闭source-map功能 -- devtool: false 排除react包引用,适用CDN文件: externals: { 'react': 'React', 'react-dom': "ReactDOM", 'react-router': 'ReactRouter' }

发布IIS后 上传文件过大失败解决方案

下面上图不多BB IIS上找到这玩意 然后左上角的节里面输入:system.webServer/security/requestFiltering 然后如下图: 这里是限定了30000000子节点  也就是28M 我们把它改成2GB IIS的上限2072576000 然后保存就OK啦

webpack打包经验——处理打包文件体积过大的问题

前言 最近对一个比较老的公司项目做了一次优化,处理的主要是webpack打包文件体积过大的问题. 这里就写一下对于webpack打包优化的一些经验. 主要分为以下几个方面: 去掉开发环境下的配置 ExtractTextPlugin:提取样式到css文件 webpack-bundle-analyzer:webpack打包文件体积和依赖关系的可视化 CommonsChunkPlugin:提取通用模块文件 提取manifest:让提取的公共js的hash值不要改变 压缩js,css,图片 react-

webpack打包后bundle.js文件过大的问题

由于webpack将所有的文件合并到一个js文件.因此打包后的文件过大,导致网络请求不畅. 今天尝试了一下webpack打包.结果打出来3.6M.因为之前在本地测试的原因,一直用的webpack -w的命令. 即监控入口文件有无改动,若有改动,则自动编译. 更改命令:webpack -p -w webpack -p起到压缩的作用. 结果为1.4M. 查阅了一下相关资料.果断用nginx进行gzip压缩. 进入 /usr/local/etc/nginx目录下 打开编辑nginx.conf 配置如下

打包phar文件过大的问题。

根据一个开源工具得到的灵感,使用流打包,并使用token_get_all移除了所用PHP文件的空白.现在打包出来只有93k了.谢谢关注. 我一个简单的文件,加上一个symfony的process包,打包出来竟有125M之巨,而composer那么多文件打包出来只有1.6M,百思不得其解.附上打包代码: <?php $pharFilename = 'deploy.phar'; if (file_exists($pharFilename)) { e('remove old file...'); un

Pyinstaller打包生成exe文件过大,四种常用处理方法集锦---嵌入式Python-02

上篇讲到 pyinstaller打包exe太大的问题 CodingDog:pyinstaller打包的exe太大?你需要嵌入式python玄学 前提篇?zhuanlan.zhihu.com 那既然pyinstaller这么麻(nan)烦(yong) 那为什么不找一种方法代替它呢? 经过多方面打听,一位道上的盆友告诉了我一个惊天大秘密 python有embedded版本 当我看完了官方的文档以后...我的表情是这样的 惊喜&惊喜&惊喜&惊喜 像发现了新大陆一样 python37的em

PHP上传大文件的三种解决方案

前段时间做视频上传业务,通过网页上传视频到服务器. 视频大小 小则几十M,大则 1G+,以一般的HTTP请求发送数据的方式的话,会遇到的问题:1,文件过大,超出服务端的请求大小限制:2,请求时间过长,请求超时:3,传输中断,必须重新上传导致前功尽弃: 解决方案: 1,修改服务端上传的限制配置:Nginx 以及 PHP 的上传文件限制 不宜过大,一般5M 左右为好: 2,大文件分片,一片一片的传到服务端,再由服务端合并.这么做的好处在于一旦上传失败只是损失一个分片而已,不用整个文件重传,而且每个分

.git文件过大!删除大文件

在我们日常使用Git的时候,一般比较小的项目,我们可能不会注意到.git 这个文件. 其实, .git文件主要用来记录每次提交的变动,当我们的项目越来越大的时候,我们发现 .git文件越来越大. 很大的可能是因为提交了大文件,如果你提交了大文件,那么即使你在之后的版本中将其删除,但是, 实际上,记录中的大文件仍然存在. 为什么呢?仔细想一想,虽然你在后面的版本中删除了大文件,但是Git是有版本倒退功能的吧,那么如果大文件不记录下来, git拿什么来给你回退呢?但是,.git文件越来越大导致的问题