分类:海量数据处理面试题
1.海量日志数据,提取出某日访问百度次数最多的那个IP。
首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到ip是32位的,最多有个2^32个ip。同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,在找出每个小文件中出现频率最大的ip(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率。然后再在这1000个最大的ip中,找出那个频率最大的ip,即为所求。
或者如下阐述:
算法思想:分而治之+Hash
1.IP地址最多有2^32=4G种取值情况,所以不能完全加载到内存中处理;
2.可以考虑采用“分而治之”的思想,按照IP地址的hash(ip)%1024,把海量IP日志分别存储到1024个小文件中。这样,每个小文件最多包含4MB个IP地址;
3.对于每个小文件,可以构建一个ip为key,出现次数为value的Hash map,同时记录当前出现次数最多的那个ip地址;
4.可以得到1024个小文件中的出现次数最多的ip,再依据常规的排序算法得到总体上出现次数最多的ip;
2.搜索引擎会通过日志文件把用户每次检索使用的所有的检索串都记录下来,每个查询串的长度是1-255字节;
假设目前有一千万个记录(这些查询串的重复读比较高,虽然总数是一千万,但如果出去重复后,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。)请你统计最热门的10个查询串,要求使用的内存不能超过1g。
第一步、先对这批海量数据预处理,在O(N)的时间内用Hash表完成统计。
第二步,借助堆这个数据结构,找出Top K,时间复杂度为Nlogk.
即,借助堆结构,我么可以在log量级的时间内查找和调整/移动。因此,维护一个K(该题目中是10)大小的小根堆,然后遍历300万的query,分别和根元素进行对比所以,我们最终的时间复杂度是:o(N)+n`*o(logk),(N为1000万,N·为300万)。
或者,采用trie树,关键字域存该查询串出现的次数,没有出现为0.最后用10个元素的最大堆来对出现的频率进行排序。