Python分析了 7 万款 App,万万没想到

摘要:使用 Scrapy 爬取豌豆荚全网 70,000+ App,并进行探索性分析。

写在前面:若对数据抓取部分不感兴趣,可以直接下拉到数据分析部分。

1 分析背景

之前我们使用了 Scrapy 爬取并分析了酷安网 6000+ App,为什么这篇文章又在讲抓 App 呢?

因为我喜欢折腾 App,哈哈。当然,主要是因为下面这几点:

第一、之前抓取的网页很简单

在抓取酷安网时,我们使用 for 循环,遍历了几百页就完成了所有内容的抓取,非常简单,但现实往往不会这么 easy,有时我们要抓的内容会比较庞大,比如抓取整个网站的数据,为了增强爬虫技能,所以本文选择了「豌豆荚」这个网站。

目标是: 爬取该网站所有分类下的 App 信息并下载 App 图标,数量在 70,000 左右,比酷安升了一个数量级。

第二、再次练习使用强大的 Scrapy 框架

之前只是初步地使用了 Scrapy 进行抓取,还没有充分领会到 Scrapy 有多么牛逼,所以本文尝试深入使用 Scrapy,增加随机 UserAgent、代理 IP 和图片下载等设置。

第三、对比一下酷安和豌豆荚两个网站

相信很多人都在使用豌豆荚下载 App,我则使用酷安较多,所以也想比较一下这两个网站有什么异同点。

话不多说,下面开始抓取流程。

▌分析目标

首先,我们来了解一下要抓取的目标网页是什么样的。

可以看到该网站上的 App 分成了很多类,包括:「应用播放」、「系统工具」等,一共有 14 个大类别,每个大类下又细分了多个小类,例如,影音播放下包括:「视频」、「直播」等。

点击「视频」进入第二级子类页面,可以看到每款 App 的部分信息,包括:图标、名称、安装数量、体积、评论等。

接着,我们可以再进入第三级页面,也就是每款 App 的详情页,可以看到多了下载数、好评率、评论数这几样参数,抓取思路和第二级页面大同小异,同时为了减小网站压力,所以 App 详情页就不抓取了。

所以,这是一个分类多级页面的抓取问题,依次抓取每一个大类下的全部子类数据。

学会了这种抓取思路,很多网站我们都可以去抓,比如很多人爱爬的「豆瓣电影」也是这样的结构。

▌分析内容

数据抓取完成后,本文主要是对分类型数据的进行简单的探索性分析,包括这么几个方面:

  • 下载量最多 / 最少的 App 总排名
  • 下载量最多 / 最少的 App 分类 / 子分类排名
  • App 下载量区间分布
  • App 名称重名的有多少
  • 和酷安 App 进行对比

▌分析工具

  • Python
  • Scrapy
  • MongoDB
  • Pyecharts
  • Matplotlib

2 数据抓取

▌网站分析

我们刚才已经初步对网站进行了分析,大致思路可以分为两步,首先是提取所有子类的 URL 链接,然后分别抓取每个 URL 下的 App 信息就行了。

可以看到,子类的 URL 是由两个数字构成,前面的数字表示分类编号,后面的数字表示子分类编号,得到了这两个编号,就可以抓取该分类下的所有 App 信息,那么怎么获取这两个数值代码呢?

回到分类页面,定位查看信息,可以看到分类信息都包裹在每个 li 节点中,子分类 URL 则又在子节点 a 的 href 属性中,大分类一共有 14 个,子分类一共有 88 个

到这儿,思路就很清晰了,我们可以用 CSS 提取出全部子分类的 URL,然后分别抓取所需信息即可。

另外还需注意一点,该网站的 首页信息是静态加载的,从第 2 页开始是采用了 Ajax 动态加载,URL 不同,需要分别进行解析提取。

▌Scrapy抓取

我们要爬取两部分内容,一是 APP 的数据信息,包括前面所说的:名称、安装数量、体积、评论等,二是下载每款 App 的图标,分文件夹进行存放。

由于该网站有一定的反爬措施,所以我们需要添加随机 UA 和代理 IP

这里随机 UA 使用 scrapy-fake-useragent 库,一行代码就能搞定,代理 IP 直接上阿布云付费代理,几块钱搞定简单省事。

下面,就直接上代码了。

items.py

 1import scrapy 2 3class WandoujiaItem(scrapy.Item): 4    cate_name = scrapy.Field() #分类名 5    child_cate_name = scrapy.Field() #分类编号 6    app_name = scrapy.Field()   # 子分类名 7    install = scrapy.Field()    # 子分类编号 8    volume = scrapy.Field()     # 体积 9    comment = scrapy.Field()    # 评论10    icon_url = scrapy.Field()   # 图标url
Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

middles.py

中间件主要用于设置代理 IP。

 1import base64 2proxyServer = "http://http-dyn.abuyun.com:9020" 3proxyUser = "你的信息" 4proxyPass = "你的信息" 5 6proxyAuth = "Basic " + base64.urlsafe_b64encode(bytes((proxyUser + ":" + proxyPass), "ascii")).decode("utf8") 7class AbuyunProxyMiddleware(object): 8    def process_request(self, request, spider): 9        request.meta["proxy"] = proxyServer10        request.headers["Proxy-Authorization"] = proxyAuth11        logging.debug(‘Using Proxy:%s‘%proxyServer)

pipelines.py

该文件用于存储数据到 MongoDB 和下载图标到分类文件夹中。

存储到 MongoDB:

 1MongoDB 存储 2class MongoPipeline(object): 3    def __init__(self,mongo_url,mongo_db): 4        self.mongo_url = mongo_url 5        self.mongo_db = mongo_db 6 7    @classmethod 8    def from_crawler(cls,crawler): 9        return cls(10            mongo_url = crawler.settings.get(‘MONGO_URL‘),11            mongo_db = crawler.settings.get(‘MONGO_DB‘)12        )1314    def open_spider(self,spider):15        self.client = pymongo.MongoClient(self.mongo_url)16        self.db = self.client[self.mongo_db]1718    def process_item(self,item,spider):19        name = item.__class__.__name__20        # self.db[name].insert(dict(item))21        self.db[name].update_one(item, {‘$set‘: item}, upsert=True)22        return item2324    def close_spider(self,spider):25        self.client.close()

按文件夹下载图标:

 1# 分文件夹下载 2class ImagedownloadPipeline(ImagesPipeline): 3    def get_media_requests(self,item,info): 4        if item[‘icon_url‘]: 5            yield scrapy.Request(item[‘icon_url‘],meta={‘item‘:item}) 6 7    def file_path(self, request, response=None, info=None): 8        name = request.meta[‘item‘][‘app_name‘] 9        cate_name = request.meta[‘item‘][‘cate_name‘]10        child_cate_name = request.meta[‘item‘][‘child_cate_name‘]1112        path1 = r‘/wandoujia/%s/%s‘ %(cate_name,child_cate_name)13        path = r‘{}\{}.{}‘.format(path1, name, ‘jpg‘)14        return path1516    def item_completed(self,results,item,info):17        image_path = [x[‘path‘] for ok,x in results if ok]18        if not image_path:19            raise DropItem(‘Item contains no images‘)20        return item

settings.py

 1BOT_NAME = ‘wandoujia‘ 2SPIDER_MODULES = [‘wandoujia.spiders‘] 3NEWSPIDER_MODULE = ‘wandoujia.spiders‘ 4 5MONGO_URL = ‘localhost‘ 6MONGO_DB = ‘wandoujia‘ 7 8# 是否遵循机器人规则 9ROBOTSTXT_OBEY = False10# 下载设置延迟 由于买的阿布云一秒只能请求5次,所以每个请求设置了 0.2s延迟11DOWNLOAD_DELAY = 0.21213DOWNLOADER_MIDDLEWARES = {14    ‘scrapy.downloadermiddlewares.useragent.UserAgentMiddleware‘: None,15    ‘scrapy_fake_useragent.middleware.RandomUserAgentMiddleware‘: 100, # 随机UA16    ‘wandoujia.middlewares.AbuyunProxyMiddleware‘: 200 # 阿布云代理17    )1819ITEM_PIPELINES = {20   ‘wandoujia.pipelines.MongoPipeline‘: 300,21   ‘wandoujia.pipelines.ImagedownloadPipeline‘: 400,22}2324# URL不去重25DUPEFILTER_CLASS = ‘scrapy.dupefilters.BaseDupeFilter‘

wandou.py

主程序这里列出关键的部分:

 1def __init__(self): 2        self.cate_url = ‘https://www.wandoujia.com/category/app‘ 3        # 子分类首页url 4        self.url = ‘https://www.wandoujia.com/category/‘ 5        # 子分类 ajax请求页url 6        self.ajax_url = ‘https://www.wandoujia.com/wdjweb/api/category/more?‘ 7        # 实例化分类标签 8        self.wandou_category = Get_category() 9def start_requests(self):10        yield scrapy.Request(self.cate_url,callback=self.get_category)1112def get_category(self,response):    13        cate_content = self.wandou_category.parse_category(response)14        # ...

这里,首先定义几个 URL,包括:分类页面、子分类首页、子分类 AJAX 页,也就是第 2 页开始的 URL,然后又定义了一个类 Get_category() 专门用于提取全部的子分类 URL,稍后我们将展开该类的代码。

程序从 start_requests 开始运行,解析首页获得响应,调用 get_category() 方法,然后使用 Get_category() 类中的 parse_category() 方法提取出所有 URL,具体代码如下:

 1class Get_category(): 2    def parse_category(self, response): 3        category = response.css(‘.parent-cate‘) 4        data = [{ 5            ‘cate_name‘: item.css(‘.cate-link::text‘).extract_first(), 6            ‘cate_code‘: self.get_category_code(item), 7            ‘child_cate_codes‘: self.get_child_category(item), 8        } for item in category] 9        return data1011    # 获取所有主分类标签数值代码12    def get_category_code(self, item):13        cate_url = item.css(‘.cate-link::attr("href")‘).extract_first()14        pattern = re.compile(r‘.*/(\d+)‘)  # 提取主类标签代码15        cate_code = re.search(pattern, cate_url)16        return cate_code.group(1)1718    # 获取所有子分类名称和编码19    def get_child_category(self, item):20        child_cate = item.css(‘.child-cate a‘)21        child_cate_url = [{22            ‘child_cate_name‘: child.css(‘::text‘).extract_first(),23            ‘child_cate_code‘: self.get_child_category_code(child)24        } for child in child_cate]25        return child_cate_url2627    # 正则提取子分类编码28    def get_child_category_code(self, child):29        child_cate_url = child.css(‘::attr("href")‘).extract_first()30        pattern = re.compile(r‘.*_(\d+)‘)  # 提取小类标签编号31        child_cate_code = re.search(pattern, child_cate_url)32        return child_cate_code.group(1)
Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

这里,除了分类名称 cate_name 可以很方便地直接提取出来,分类编码和子分类的子分类的名称和编码,我们使用了 get_category_code() 等三个方法进行提取。提取方法使用了 CSS 和正则表达式,比较简单。

最终提取的分类名称和编码结果如下,利用这些编码,我们就可以构造 URL 请求开始提取每个子分类下的 App 信息了。

 1{‘cate_name‘: ‘影音播放‘, ‘cate_code‘: ‘5029‘, ‘child_cate_codes‘: [ 2    {‘child_cate_name‘: ‘视频‘, ‘child_cate_code‘: ‘716‘},  3    {‘child_cate_name‘: ‘直播‘, ‘child_cate_code‘: ‘1006‘},  4    ... 5    ]},  6{‘cate_name‘: ‘系统工具‘, ‘cate_code‘: ‘5018‘, ‘child_cate_codes‘: [ 7    {‘child_cate_name‘: ‘WiFi‘, ‘child_cate_code‘: ‘895‘},  8    {‘child_cate_name‘: ‘浏览器‘, ‘child_cate_code‘: ‘599‘},  9    ...10    ]}, 11...

接着前面的 get_category() 继续往下写,提取 App 的信息:

 1def get_category(self,response):     2        cate_content = self.wandou_category.parse_category(response) 3        # ... 4        for item in cate_content: 5            child_cate = item[‘child_cate_codes‘] 6            for cate in child_cate: 7                cate_code = item[‘cate_code‘] 8                cate_name = item[‘cate_name‘] 9                child_cate_code = cate[‘child_cate_code‘]10                child_cate_name = cate[‘child_cate_name‘]1112                page = 1 # 设置爬取起始页数13                if page == 1:14                    # 构造首页url15                    category_url = ‘{}{}_{}‘ .format(self.url, cate_code, child_cate_code)16                else:17                    params = {18                        ‘catId‘: cate_code,  # 类别19                        ‘subCatId‘: child_cate_code,  # 子类别20                        ‘page‘: page,21                        }22                    category_url = self.ajax_url + urlencode(params)23                dict = {‘page‘:page,‘cate_name‘:cate_name,‘cate_code‘:cate_code,‘child_cate_name‘:child_cate_name,‘child_cate_code‘:child_cate_code}24                yield scrapy.Request(category_url,callback=self.parse,meta=dict)

这里,依次提取出全部的分类名称和编码,用于构造请求的 URL。

由于首页的 URL 和第 2 页开始的 URL 形式不同,所以使用了 if 语句分别进行构造。接下来,请求该 URL 然后调用 self.parse() 方法进行解析,这里使用了 meta 参数用于传递相关参数。

 1def parse(self, response): 2        if len(response.body) >= 100:  # 判断该页是否爬完,数值定为100是因为无内容时长度是87 3            page = response.meta[‘page‘] 4            cate_name = response.meta[‘cate_name‘] 5            cate_code = response.meta[‘cate_code‘] 6            child_cate_name = response.meta[‘child_cate_name‘] 7            child_cate_code = response.meta[‘child_cate_code‘] 8 9            if page == 1:10                contents = response11            else:12                jsonresponse = json.loads(response.body_as_unicode())13                contents = jsonresponse[‘data‘][‘content‘]14                # response 是json,json内容是html,html 为文本不能直接使用.css 提取,要先转换15                contents = scrapy.Selector(text=contents, type="html")1617            contents = contents.css(‘.card‘)18            for content in contents:19                # num += 120                item = WandoujiaItem()21                item[‘cate_name‘] = cate_name22                item[‘child_cate_name‘] = child_cate_name23                item[‘app_name‘] = self.clean_name(content.css(‘.name::text‘).extract_first())  24                item[‘install‘] = content.css(‘.install-count::text‘).extract_first()25                item[‘volume‘] = content.css(‘.meta span:last-child::text‘).extract_first()26                item[‘comment‘] = content.css(‘.comment::text‘).extract_first().strip()27                item[‘icon_url‘] = self.get_icon_url(content.css(‘.icon-wrap a img‘),page)28                yield item2930            # 递归爬下一页31            page += 132            params = {33                    ‘catId‘: cate_code,  # 大类别34                    ‘subCatId‘: child_cate_code,  # 小类别35                    ‘page‘: page,36                    }37            ajax_url = self.ajax_url + urlencode(params)38            dict = {‘page‘:page,‘cate_name‘:cate_name,‘cate_code‘:cate_code,‘child_cate_name‘:child_cate_name,‘child_cate_code‘:child_cate_code}39            yield scrapy.Request(ajax_url,callback=self.parse,meta=dict)

最后,parse() 方法用来解析提取最终我们需要的 App 名称、安装量等信息,解析完成一页后,page 进行递增,然后重复调用 parse() 方法循环解析,直到解析完全部分类的最后一页。

最终,几个小时后,我们就可以完成全部 App 信息的抓取,我这里得到 73,755 条信息和 72,150 个图标,两个数值不一样是因为有些 App 只有信息没有图标。

图标下载:

下面将对提取的信息,进行简单的探索性分析。

3 数据分析

▌总体情况

首先来看一下 App 的安装量情况,毕竟 70000 多款 App,自然很感兴趣哪些 App 使用地最多,哪些又使用地最少

代码实现如下:

 1plt.style.use(‘ggplot‘) 2colors = ‘#6D6D6D‘ #字体颜色 3colorline = ‘#63AB47‘  #红色CC2824  #豌豆荚绿 4fontsize_title = 20 5fontsize_text = 10 6 7# 下载量总排名 8def analysis_maxmin(data): 9    data_max = (data[:10]).sort_values(by=‘install_count‘)10    data_max[‘install_count‘] = (data_max[‘install_count‘] / 100000000).round(1)11    data_max.plot.barh(x=‘app_name‘,y=‘install_count‘,color=colorline)12    for y, x in enumerate(list((data_max[‘install_count‘]))):13        plt.text(x + 0.1, y - 0.08, ‘%s‘ %14                 round(x, 1), ha=‘center‘, color=colors)1516    plt.title(‘安装量最多的 10 款 App ?‘,color=colors)17    plt.xlabel(‘下载量(亿次)‘)18    plt.ylabel(‘App‘)19    plt.tight_layout()20    # plt.savefig(‘安装量最多的App.png‘,dpi=200)21    plt.show()

看了上图,有两个「没想到」:

  • 排名第一的居然是一款手机管理软件

    对豌豆荚网上的这个第一名感到意外,一是、好奇大家都那么爱手机清理或者怕中毒么?毕竟,我自己的手机都「裸奔」了好些年;二是、第一名居然不是鹅厂的其他产品,比如:微信或者QQ。

  • 榜单放眼望去,以为会出现的没有出现,没有想到的却出现了

    前十名中,居然出现了书旗小说、印客这些比较少听过的名字,而国民 App 微信、支付宝等甚至都没有出现在这个榜单中。

带着疑问和好奇,分别找到了「腾讯手机管家」和「微信」两款 App 的主页:

腾讯手机管家下载和安装量:

微信下载和安装量:

这是什么情况???

腾讯管家 3 亿多的下载量等同于安装量,而微信 20 多亿的下载量,只有区区一千多万的安装量,两组数据对比,大致反映了两个问题:

  • 要么是腾讯管家的下载量实际并没有那么多
  • 要么是微信的下载量写少了

不管是哪个问题,都反映了一个问题:该网站做得不够走心啊

为了证明这个观点,将前十名的安装量和下载量都作了对比,发现很多 App 的安装量和下载量是一样的,也就是说:这些 App 的实际安装量并没有那么多,而如果这样的话,那么这份榜单就有很大水分了。

难道,辛辛苦苦爬了那么久,就得到这样的结果?

不死心,接着再看看安装量最少的 App 是什么情况,这里找出了其中最少的 10 款:

扫了一眼,更加没想到了:

「QQ 音乐」竟然是倒数第一,只有 3 次安装量!

这和刚刚上市、市值千亿的 QQ 音乐是同一款产品?

再次核实了一下:

没有看错,是写着 3人安装!

这是已经不走心到什么程度了?这个安装量,鹅厂还能「用心做好音乐」?

说实话,到这儿已经不想再往下分析下去了,担心爬扒出更多没想到的东西,不过辛苦爬了这么久,还是再往下看看吧。

看了首尾,我们再看看整体,了解一下全部 App 的安装数量分布,这里去除了有很大水分的前十名 App。

很惊讶地发现,竟然有 多达 67,195 款,占总数的 94% 的 App 的安装量不足 1万!

如果这个网站的所有数据都是真的话,那么上面排名第一的手机管家,它一款就差不多抵得上这 6 万多款 App 的安装量!

对于多数 App 开发者,只能说:现实很残酷,辛辛苦苦开发出来的 App,用户不超过 1万人的可能性高达近 95%

代码实现如下:

 1def analysis_distribution(data): 2    data = data.loc[10:,:] 3    data[‘install_count‘] = data[‘install_count‘].apply(lambda x:x/10000) 4    bins = [0,1,10,100,1000,10000] 5    group_names = [‘1万以下‘,‘1-10万‘,‘10-100万‘,‘100-1000万‘,‘1000万-1亿‘] 6    cats = pd.cut(data[‘install_count‘],bins,labels=group_names) 7    cats = pd.value_counts(cats) 8    bar = Bar(‘App 下载数量分布‘,‘高达 94% 的 App 下载量低于1万‘) 9    bar.use_theme(‘macarons‘)10    bar.add(11        ‘App 数量‘,12        list(cats.index),13        list(cats.values),14        is_label_show = True,15        xaxis_interval = 0,16        is_splitline_show = 0,17        )18    bar.render(path=‘App下载数量分布.png‘,pixel_ration=1)

▌分类情况

下面,我们来看看各分类下的 App 情况,不再看安装量,而看数量,以排出干扰。

可以看到 14 个大分类中,每个分类的 App 数量差距都不大,数量最多的「生活休闲」是「摄影图像」的两倍多一点。

接着,我们进一步看看 88 个子分类的 App 数量情况,筛选出数量最多和最少的 10 个子类:

可以发现两点有意思的现象:

  • 「收音机」类别 App 数量最多,达到 1,300 多款

    这个很意外,当下收音机完全可以说是个老古董了,居然还有那么人去开发。

  • App 子类数量差距较大

    最多的「收音机」是最少的「动态壁纸」近 20 倍,如果我是一个 App 开发者,那我更愿意去尝试开发些小众类的 App,竞争小一点,比如:「背单词」、「小儿百科」这些。

看完了总体和分类情况,突然想到一个问题:这么多 App,有没有重名的呢?

惊奇地发现,叫「一键锁屏」的 App 多达 40 款,这个功能 App 很难再想出别的名字了么? 现在很多手机都支持触控锁屏了,比一键锁屏操作更加方便。

接下来,我们简单对比下豌豆荚和酷安两个网站的 App 情况。

▌对比酷安

二者最直观的一个区别是在 App 数量上,豌豆荚拥有绝对的优势,达到了酷安的十倍之多,那么我们自然感兴趣:

豌豆荚是否包括了酷安上所有的 App ?

如果是,「你有的我都有,你没有的我也有」,那么酷安就没什么优势了。统计之后,发现豌豆荚 仅包括了 3,018 款,也就是一半左右,剩下的另一半则没有包括。

这里面固然存在两个平台上 App 名称不一致的现象,但更有理由相信 酷安很多小众的精品 App 是独有的,豌豆荚里并没有。

代码实现如下:

 1include = data3.shape[0] 2notinclude = data2.shape[0] - data3.shape[0] 3sizes= [include,notinclude] 4labels = [u‘包含‘,u‘不包含‘] 5explode = [0,0.05] 6plt.pie( 7    sizes, 8    autopct = ‘%.1f%%‘, 9    labels = labels,10    colors = [colorline,‘#7FC161‘], # 豌豆荚绿11    shadow = False,12    startangle = 90,13    explode = explode,14    textprops = {‘fontsize‘:14,‘color‘:colors}15)16plt.title(‘豌豆荚仅包括酷安上一半的 App 数量‘,color=colorline,fontsize=16)17plt.axis(‘equal‘)18plt.axis(‘off‘)19plt.tight_layout()20plt.savefig(‘包含不保包含对比.png‘,dpi=200)21plt.show()
Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

接下来,我们看看所包含的 App 当中,在两个平台上的下载量是怎么样的:

可以看到,两个平台上 App 下载数量差距还是很明显。

最后,我面再看看豌豆荚上没有包括哪些APP:

发现很多神器都没有包括,比如:RE、绿色守护、一个木函等等。豌豆荚和酷安的对比就到这里,如果用一句话来总结,我可能会说:

豌豆荚太牛逼了, App 数量是酷安的十倍,所以我选酷安。

原文地址:https://blog.51cto.com/14445003/2422972

时间: 2024-10-20 02:05:17

Python分析了 7 万款 App,万万没想到的相关文章

万万没想到用理工科思维理解世界-摘录

万万没想到用理工科思维理解世界-万维钢(同人于野)著 第一章 怎样杀死海星 传统组织就如同蜘蛛,它的智力集中在大脑,只要你把蜘蛛的头去掉,蜘蛛就会死亡.而去中心化组织就如同海星,海星根本就没有头.它的智能分布在身体各处,一旦你打掉它身体的一部分,那个部分甚至可能自己再长成另一个海星. 不过去中心化组织有个关键的弱点:你很难通过这样的组织赚大钱.分权的产业利润低,只有集权才能获得高利润. 怎样杀死海星?<海星与蜘蛛>给了三个策略. 第一个策略是改变环境.既然你们是靠一种意识形态联系在一起,我就让

《北京IT故事》能成为下一部《万万没想到》?

10月29日上午,一部名为<北京IT故事>的视频短剧在IT互联网从业者们的朋友圈迅速被刷屏,这部制作粗糙.演员表情木讷.广告植入赤裸的网剧反而因为内容编排和IT互联网从业者的生活息息相关,被广大网友追捧.有人甚至评价<北京IT故事>这部短剧制作和演员阵容堪比<万万没想到>,会成为下一部网络神剧. 真是被你们蠢哭了.IT群体的形象被毁.暗含忧伤的无节操演绎.....等评价此起彼伏,网友在笑着.骂着这部短剧的时候,不知不觉辛苦工作一天后的疲劳一扫而空. 在中国北京,随着生活

万万没想到,公有云离中国影视特效渲染还有5年

电影<万万没想到:西游篇>的特效制作公司北京聚光绘影科技有限公司(以下简称:聚光绘影)总经理及视效导演徐飞告诉记者,国际上早在2009年的<阿凡达>就已经通过云端方式实现了全球化的数据传输和渲染,然而具体到中国的情况,至少5年之内不会考虑用公有云进行特效渲染.原因很简单,网络带宽不给力. 成立于2011年的聚光绘影是一家全流程视觉特殊效果提供与高端影视技术服务供应商,迄今为止已完成30多部国内外电影项目后期特效制作.聚光绘影的作品包括<黄金大劫案>.<大闹天宫&g

万万没想到,公式还能这样编辑!

在文档中编辑公式是一个非常头疼的问题,感觉公式都是一些特殊的样式,用公式编辑器的模板怎么都编辑不出来.那是因为还有很多模板的组合输入你不会,在你熟悉了之后,你会发现,原来公式还能这样编辑出来! 编辑公式时最常用的软件就是MathType数学公式编辑器,这是一款强大的软件,它比Office自带的公式编辑器要好用很多.不信的朋友可以去试一下,将两者进行一下对比绝对会让你眼前一亮. 1.字母上方的黑点 例如输入下面的方程组: 操作过程: (1)打开MathType软件,在括号模板中选择左边大括号,在上

《万万没想到:用理工科思维理解世界》读书简记

1.确认偏误(confirmation bias)  万万没想到:用理工科思维理解世界 (万维钢, loc. 291-291) (或称肯证偏误.验证性偏见) 是个人无论合乎事实与否,偏好支持自己的成见.猜想的倾向.由此,人们在脑中选择性地回忆.搜集有利细节,忽略矛盾的信息,并加以片面诠释. 2.搞科研的一大乐趣就是被别人改变想法! 万万没想到:用理工科思维理解世界 (万维钢, loc. 424-424) 我想“改变”是一个顿悟的过程,搞科研是百分之九十九的汗水(渐变)之后,百分之一的灵感(改变)

万万没想到,成功如此简单

我的成功可以复制, 快来思博涨姿势! 前辈的心路历程, 助您走向成功之道. 升职加薪,成为总经理, 出任CEO,迎娶白富美, 走向人生巅峰! 一切尽在掌握之中! 11月19日晚20:00, 腾讯课堂, 万万没想到, 幸福来得如此简单~~ 报名链接:http://ke.qq.com/course/95265

校招真题练习014 万万没想到之聪明的编辑(头条)

万万没想到之聪明的编辑 题目描述我叫王大锤,是一家出版社的编辑.我发现一个发现拼写错误的捷径: 1. 三个同样的字母连在一起,一定是拼写错误,去掉一个的就好啦:比如 helllo -> hello2. 两对一样的字母(AABB型)连在一起,一定是拼写错误,去掉第二对的一个字母就好啦:比如 helloo -> hello3. 上面的规则优先“从左到右”匹配,即如果是AABBCC,虽然AABB和BBCC都是错误拼写,应该优先考虑修复AABB,结果为AABCC 请听题:请实现大锤的自动校对程序 输入

从零开始开发一款app,所想到的

我在知乎上看到这个问题http://www.zhihu.com/question/27645587.我在阅读了各位大牛的答案后,再加上自己的思考,就有了这篇文章的内容. 从零开始开发一款app,要做这些事情: 1.确定编码规范---Code Style.这个可以直接参考规范https://google-styleguide.googlecode.com/svn/trunk/javaguide.html#s5.3-camel-case 2.资源文件命名规则,可以参考这里面的Resourcce来做h

万万没想到 人类200年人工智能想象史竟然藏着这样的大秘密

许多人真正记住人工智能,或许是因为2001年史蒂文·斯皮尔伯格执导那部电影<人工智能>. 诡吊的是,这部电影像极了他1985年为了冲击奥斯卡为拍的文艺片<紫色>,从来都是票房冠军.爆米花故事高手的斯皮尔伯格,没能让人们记住这部电影的情结,只是让大家脑海里刻下了一幅海报--用一个小男孩的剪影和身影组成的2个英文字母"AI"(人工智能Artificial Intelligence的缩写). 文/张书乐(人民网.人民邮电报专栏作者) 新著有<微博运营完全自学手册