Hadoop大数据之准备工作/环境安装

学习hadoop也有些时日了。最近刚好比较闲,就把hadoop的一些东西做一些总结和记录~希望可以帮助一些初入hadoop的童鞋。大神们就请自觉绕道吧~毕竟我还是一枚小小的技术渣^_^ OK~不扯了,从头说起

准备须知:

1、VMware虚拟机(是个虚拟机就行,这里仅以VMware为例吧)

2、Linux系统。(我用的是ubuntu,其他的以后会再做记录)

3、jdk-6u34-linux-i586.bin (Linux下的java安装包)

4、hadoop-2.4.1.tar.gz(Linux下的hadoop安装包)

如果找不到下载的话,提供一个个人网盘的下载链接:

http://yunpan.cn/cywy8xEc8wGau  提取码 4501

------------------------------------

OK 准备工作做好之后,我们就开始动手大干一番吧!

1、安装VMware,就不说了

2、使用ubuntu镜像文件安装ubuntu系统,具体的大家应该都会

打开VMware→文件→新建虚拟机→典型→找到ubuntu镜像文件所在位置,下一步下一步……就好了

3、安装VMware Tools

解释一下为什么要安装VMware Tools。

VMware Tools是VMware 虚拟机中自带的一种增强工具,相当于VirtualBox(如果用过VirtualBox这款虚拟机的话)中的增强功能,只有安装了VMware Tools,才能实现主机与虚拟机之间文件共享,同时支持自由拖拽的功能。

VMware Tools安装步骤:

1、启动并进入Linux系统

2、虚拟机--》安装VMware Tools

或者右键虚拟机

此时就会把VMware Tools文件映象到CD-ROM中

3、将VMwareTools-9.6.2-1688356.tar.gz文件copy到桌面一份

右键--》extract here

或者使用命令:

# tar -zxvf VMwareTools-9.6.2-1688356.tar.gz

然后

cd vmware-tools-distrib

sudo ./vmware-install.pl

(sudo:分配权限安装,默认权限是user权限而不是root权限)

安装中一路回车即可

时间: 2024-10-16 15:36:04

Hadoop大数据之准备工作/环境安装的相关文章

基于Ubuntu16搭建Hadoop大数据完全分布式环境

[目的]:学习大数据 在此记录搭建大数据的过程. [系统环境] 宿主机操作系统:Win7 64位 虚拟机软件:Vmware workstation 12 虚拟机:Ubuntu 16 64位桌面版 [搭建过程] 一.准备 1.安装文件准备 Hadoop软件: JDK: Ubuntu 16的安装软件 2.虚拟机准备 测试计划使用三台虚拟机 在Win7里启动Vmware workstation,安装一台操作系统为Ubuntu 16的空的虚拟机,从这台虚拟机另外再克隆出来两台 3.机器名称:hadoop

Hadoop实战视频教程完整版 完整的Hadoop大数据视频教程

分享一套迪伦老师的完整的Hadoop实战视频教程,教程从学习Hadoop需要的数据库.Java和Linux基础讲起,非常适合零基础的学员,课程最后结合了实战项目演练,理论结合实战,深入浅出,绝对是当前最为完整.实战的Hadoop教程. <Hadoop大数据零基础高端实战培训系列配文本挖掘项目(七大亮点.十大目标)> 课程讲师:迪伦 课程分类:大数据 适合人群:初级 课时数量:230课时 用到技术:部署Hadoop集群 涉及项目:京东商城.百度.阿里巴巴 咨询QQ:1337192913(小公子)

Hadoop大数据零基础高端实战培训视频

<Hadoop大数据零基础高端实战培训系列配文本挖掘项目(七大亮点.十大目标)> 课程讲师:迪伦 课程分类:大数据 适合人群:初级 课时数量: 300课时 用到技术:部署Hadoop集群 涉及项目:京东商城.百度.阿里巴巴 咨询QQ:779591710 下载地址: 链接:http://pan.baidu.com/share/link?shareid=3299239734&uk=3289559542 密码:8tkb 第一阶段:Hadoop基础篇(50课时) - 千里之行,始于足下(赠送课

Hadoop大数据通用处理平台

1.简介 Hadoop是一款开源的大数据通用处理平台,其提供了分布式存储和分布式离线计算,适合大规模数据.流式数据(写一次,读多次),不适合低延时的访问.大量的小文件以及频繁修改的文件. *Hadoop由HDFS.YARN.MapReduce组成. Hadoop的特点: 1.高扩展(动态扩容):能够存储和处理千兆字节数据(PB),能够动态的增加和卸载节点,提升存储能力(能够达到上千个节点) 2.低成本:只需要普通的PC机就能实现,不依赖高端存储设备和服务器. 3.高效率:通过在Hadoop集群中

ambari 搭建hadoop大数据平台系列4-配置ambari-server

ambari 搭建hadoop大数据平台系列4-配置ambari-server,分为三部分: 官网:  https://docs.hortonworks.com/HDPDocuments/Ambari-2.4.2.0/bk_ambari-installation/content/download_the_ambari_repo_lnx7.html 安装ambari-server  配置ambari-server  命令;ambari-server setup 启动ambari-server 命令

上海Cloudera Hadoop大数据培训:CCAH、CCP:DE

上海Cloudera Hadoop大数据培训:CCAH.CCP:DE 北京.上海.广州长期开班 3月上海开班时间:管理员(3月1-4日):开发者(3月23-26日) [其他课程安排请咨询]15000519329(陈老师) QQ群:Cloudera大数据 478790619 课程内容: [Cloudera Apache Hadoop管理员课程] 课时:4天 学习系统管理的概念和Apache Hadoop的最佳实践, 从安装和配置到负载均衡和调优. 这个4天的的课程通过动手时间来赋予你部署的经验,

北京上海Cloudera Hadoop大数据培训:CCAH(管理员)、CCA(程序员)

北京上海Cloudera Hadoop大数据培训:CCAH(管理员).CCA(Spark and Hadoop) 北京9月27-30日Cloudera  Administrator Training for Apache Hadoop(CCAH) 上海9月27-30日Cloudera  Administrator Training for Apache Hadoop(CCAH) 北京10月17-20日Cloudera Data Analyst Training 上海10月27-30日Cloude

Hadoop大数据视频教程_零基础实战培训(新增)

Hadoop大数据零基础高端实战培训系列配文本挖掘项目课程分类:大数据适合人群:初级课时数量:230课时+90课程更新程度:完成用到技术:部署Hadoop集群 涉及项目:京东商城.百度.阿里巴巴 咨询qq:1840215592 大数据Hadoop实战视频教程就从最基础的Java语法.数据库.Linux讲起到深入Hadoop大数据技术所必须的所有知识,设计Hadoop生态圈所有常用组件,包括但不限于:Greenplum数据库.HBase.Hive.Pig.ZooKeeper.Chukwa.Hado

Hadoop大数据零基础高端实战培训(新增内容)

Hadoop大数据零基础高端实战培训系列配文本挖掘项目课程分类:大数据适合人群:初级课时数量:230课时+90课程更新程度:完成用到技术:部署Hadoop集群 涉及项目:京东商城.百度.阿里巴巴 咨询qq:1840215592 大数据Hadoop实战视频教程就从最基础的Java语法.数据库.Linux讲起到深入Hadoop大数据技术所必须的所有知识,设计Hadoop生态圈所有常用组件,包括但不限于:Greenplum数据库.HBase.Hive.Pig.ZooKeeper.Chukwa.Hado