正常来讲学习大数据之前都要做到以下几点
1.学习基础的编程语言(java,python)
2.掌握入门编程基础(linux操作,数据库操作、git操作)
3.学习大数据里面的各种框架(hadoop、hive、hbase、spark)
这是正常学习大数据必须要做到的三个步骤,如果有了java基础再去学习基本上已经成功了一半,起码不用为了基础语言的学习而恼火了。
真正的大数据的学习不能仅仅停留在理论的层面上,比如现在经常用到的spark框架目前支持两种语言的开发java或者Scala,现在python语言也能支持了。大数据的方向的切入是全方位的基础语言的学习只是很小的一个方面,编程落实到最后到编程思想,有了指导思想学习起来就能方便很多。
大数据在使用过程中因为涉及很多框架的部署,而且大部分的部署都在linux环境下,所以掌握linux基本的命令是必须具备的,linux虽然在桌面系统上应用范围不是很广泛,但在服务器端还是收到很大的推崇,命令的学习相对而言还是比较简单。
我还是要推荐下我自己创建的大数据资料分享群142973723,这是大数据学习交流的地方,不管你是小白还是大牛,小编都欢迎,不定期分享干货,包括我整理的一份适合零基础学习大数据资料和入门教程。
大数据主流的框架hadoop了,里面涉及到的框架又是非常的庞大,以致于很多人觉得学习大数据就是学习hadoop了,毕竟属于主流体系,但很多公司的做法是几个框架混合起来使用,达到最高的效果。
有了java基础切入会感觉好很多,毕竟掌握了一门编程语言,计算机语言的感觉有了,切换场景学习而已,没有什么本质的区别。有了java基础自己找些框架资料,动手做点实际的小项目,就可以了,有些东西没有想象的那么难,就看付出多少功夫了。
现在大数据时代真在渐渐进入大众视野,如果现在你是一名IT工作者,如果你对大数据有着浓厚兴趣,想在将来的大数据时代更好的适应与发展,你可以加群一起交流,提供给大家的仅仅是一条能够更好学习的途径!~
原文地址:http://blog.51cto.com/14052410/2318732