weekend110(Hadoop)的 第三天笔记

  (2015年1月17日)

课程目录

01-hdfs源码跟踪之打开输入流

02-hdfs源码跟踪之打开输入流总结

03-mapreduce介绍及wordcount

04-wordcount的编写和提交集群运行

05-mr程序的本地运行模式

06-job提交的逻辑及YARN框架的技术机制

07-MR程序的几种提交运行模式

08-YARN的通用性意义

09-yarn的job提交流程

时间: 2024-11-03 20:54:47

weekend110(Hadoop)的 第三天笔记的相关文章

《Hadoop权威指南》读书笔记

<Hadoop权威指南>读书笔记 Day1 第一章 1.MapReduce适合一次写入.多次读取数据的应用,关系型数据库则更适合持续更新的数据集. 2.MapReduce是一种线性的可伸缩编程模型. 3.高性能计算HPC和网格计算比较适合用于计算密集型的作业,但如果几点需要访问的数据量更庞大,很多节点就会因为网络带宽的瓶颈问题不得不闲下等数据.(HPC和网格计算的数据存储与SAN中,数据存储比较集中,数据访问一般通过网络) 4.MapReduce尽量在计算节点上存储数据,以实现数据的本地化快速

vmware搭建hadoop集群完整过程笔记

搭建hadoop集群完整过程笔记 一.虚拟机和操作系统 环境:ubuntu14+hadoop2.6+jdk1.8 虚拟机:vmware12 二.安装步骤: 先在一台机器上配置好jdk和hadoop: 1.新建一个hadoop用户 用命令:adduser hadoop 2.为了让hadoop用户有sudo的权限: 用root用户打开sudors文件添加红色框里面的内容: 打开文件: 添加内容: 3.配置jdk,我把jdk的压缩包放在了hadoop的用户目录下,然后也解压在当前目录下 修改配置文件(

Hadoop 1.2.1 安装笔记01 : Linux 与免密码

目标: 配置一个hadoop 1.2.1 测试环境  用的JDK是: jdk-7u65-linux-x64.gz 选的hadoop 是: hadoop-1.2.1.tar.gz 均来源Apache和oracle网站 主机规划: Linux版本 :  Centos 6.5 x64位  /boot:用来存放与Linux系统启动有关的程序,比如启动引导装载程序等,建议大小为100MB. /usr:用来存放Linux系统中的应用程序,其相关数据较多,建议大于3GB以上. /var:用来存放Linux系统

淘淘商城第三天笔记

第三天笔记 1 课程计划 后台管理商品的添加功能 1.商品分类选择 2.上传图片 3.富文本编辑器(kindEditor) 4.实现商品的添加 5.课后作业(商品的修改.删除) 2 商品添加功能说明 3 类目选择 3.1 需求 点击类目选择按钮弹出类目选择窗口,窗口中是一个树形视图.分级展示商品分类.当选择商品分类的叶子节点后,关闭窗口并将选中的商品分类的名称显示到网页上. 1.初始化tree的url: /item/cat/list 2.请求的参数 Id(当前节点的id,根据此id查询子节点)

Hadoop 1.2.1 安装笔记02: Java安装

采用ftp 或在线wget方式获取jdk安装包 ,放置于新创建的/usr/java 目录中 ,解压安装 [[email protected] java]$ sudo tar -zxvf jdk-7u65-linux-x64.gz 配置 /etc/profile里的Java参数 # JAVA environment  export JAVA_HOME=/usr/java/jdk1.7.0_65 export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_H

《OD学hadoop》第三周0709

一.MapReduce编程模型1. 中心思想: 分而治之2. map(映射)3. 分布式计算模型,处理海量数据4. 一个简单的MR程序需要制定map().reduce().input.output5. 处理的数据放在input中.处理的结果放在output中6. MR程序>八股文7. MR在处理数据的时候,是由一个流向,数据在处理过程中的流向格式:以<key,value>进行流向8. input -> map() -> reduce() -> output<key

HBase in Action前三章笔记

近期接触HBase,看了HBase In Action的英文版.開始认为还行,做了些笔记.可是兴许看下去,越来越感觉到实战这本书比較偏使用上的细节,对于HBase的具体设计涉及得很少.把前三章的一些笔记帖一下.后面几章内容不打算整理了.并非说书内容不好. key-value存储.强一致性,多个RegionServer节点对client端是不暴露细节的 使用场景:典型的web-search, capture incremental data, ad. click stream, content s

Hadoop那些事儿(三)---MapReduce编程浅析

1.map和reduce 1.1 mapReduce处理逻辑 在本系列文章的第一篇中,曾对MapReduce原理做过简单的描述,在这里再重述一遍. 首先我们有两个文件word1.txt和word2.txt 其中word1.txt的内容如下: aaaa bbbb cccc dddd aaaa word2.txt的内容如下: aaaa cccc dddd eeee aaaa 这里的两个文件很小,我们先假设这两个文件很大,分别为64M和96M的大小,然后我们需要统计文件中每个字符串的数量,那么MapR

IOS阶段学习第三天笔记(运算符)

                                         IOS学习(C语言)知识点整理笔记 1.运算符 一.算术运算符 1)表达式由变量.常量.运算符构成,有确定的类型和值 2)算术运算符包括: +(加),-(减),*(乘),/(除),%(模) 3)算术运算符优先级 括号()> * ,/ ,%  >+,- 4)%表示取余.取模  a%b 表示a除以b取余数 5)整数相除保留两位小数处理方法如: printf(“%.2f”,(float)14/9); 6)自增自减运算符