大数据第六天作业

1.使用抽象类和接口实现适配器模式设计。

public class Button {
	private ButtonListener listener;

	public void addListener(ButtonListener listener){
		this.listener = listener;
	}

	public void click(){
		listener.click();
	}
}
public interface ButtonListener {
	public void click();
	public void dbclick();
	public void keyUp();
	public void keyDown();
}
public abstract class ButtonListenerAdapter implements ButtonListener{
	@Override
	public void click() {
		System.out.println("适配器对click方法的默认实现");
	}

	@Override
	public void dbclick() {
		System.out.println("适配器对dbclick方法的默认实现");
	}

	@Override
	public void keyDown() {
		System.out.println("适配器对keydown方法的默认实现");
	}

	@Override
	public void keyUp() {
		System.out.println("适配器对keyup方法的默认实现");
	}
}
public class MyButtonListener extends ButtonListenerAdapter{

}
public class Main {
	public static void main(String[] args) {
		Button b  = new Button();
		MyButtonListener listener = new MyButtonListener();
		b.addListener(listener);
		b.click();
	}
}

2.阐述什么是多态。

为什么函数可以覆盖,而属性不能覆盖?

答:

a.什么是多态

多态就是从不同的角度去看数据,这些数据构成一个对象的多种状态,比如:员工的特点是有薪水和编号

,但要站在生物的角度去看员工那就是有鼻子有眼睛.对象没有变,只是观察的角度改变了,这就是多态.

b.为什么函数能覆盖属性却不能

属性保存的是数据,是表示一个对象的重要资产,故只能被继承但不能被修改.

时间: 2024-11-06 11:35:34

大数据第六天作业的相关文章

大数据第六天内容

[作业1] ------------------------------------ 使用抽象类和接口实现适配器模式设计.涉及的类和接口分别为ButtonListener(接口), 其中含有click() / dbclick() / keyUp() / keyDown()等方法. ButtonAdapter(按钮适配器类),适配器中对非click()方法进行默认实现. Button类中添加addListener(ButtonListener l)方法. 代码: //按钮监听器接口 interfa

基于大数据开发套件定时调度带资源文件的MapReduce作业

MaxCompute里的MR作业,很少是只要跑一次就好了的.如果需要周期性调度,目前MaxCompute(原名ODPS)只提供了计算引擎,任务调度可以使用大数据开发套件来实现.这篇帖子从基础开始,介绍了3种周期性调度的方法.同时还介绍了如何使用资源文件. 代码开发 代码以文档里的WordCount 作为例子.在这个基础上,增加资源文件的读取方法,修改Reduce类.主要的逻辑是读取资源文件,资源文件里的数据格式是字符串1,字符串2.代码逻辑是如果word count里的word如果有在字符串1里

大数据作业

作业 1.       大数据对思维方式的重要影响. 2.       详细描述大数据.云计算.物联网之间的区别和联系. 3.       描述你对大数据应用与发展的看法,以及你在大数据浪潮中想扮演什么样的角色. 1 1)   及时解析故障和问题的所在: 2)   根据顾客的购买习惯可以分析流行以及价值情况: 3)   出行时可以更省时.更省钱的划分路线,躲避拥堵: 4)   大数据思维能帮助开创新的商业模式: 5)   大数据思维的核心是要意识到我们已经生活在一个互联网几乎无处不在的世界,并且

第七周作业:关于我对大数据的两点误解

上周在写一份材料时,其中写到了“将大数据技术更好地应用于高校就业指导与服务”,后来在上交材料时,老师问我“你知道大数据”是指什么吗?当时我只知道应该就是指数据多.信息量大吧,后来老师给我做了一些简单的解释,我才明白原来并不是我想的那样. 作为一个计算机系的学生,对此是应该了解的,于是我查了一些有关大数据的资料来加深我的理解. 以下是我以前的两点误解: 1.数据不等于信息 数据指的是一个原始的数据点,信息则直接与内容挂钩,数据多,不一定就代表信息多.比如我们玩微博的时候,有时会转发别人的微博,有时

最新大数据24期 共十天高清视频教程 附课件源码

课程目录: 大数据24期-01-JavaSE基础-15天 第一天: 01.什么是计算机软件02.什么数据软件开发--利用编程语言来写剧本03.什么是jdk--怎么安装jdk03.什么是jdk--怎么安装jdk04.安装启动eclipse04.安装启动eclipse05.配置eclipse的字体和布局06.新建一个java的类的步骤07.第一个java编程作品--HelloWorld08.java中的变量定义和变量赋值语法09.第一个java程序中的知识点梳理--终端输入--终端输出10.第二个j

底层战详解使用Java开发Spark程序(DT大数据梦工厂)

Scala开发Spark很多,为什么还要用Java开发原因:1.一般Spark作为数据处理引擎,一般会跟IT其它系统配合,现在业界里面处于霸主地位的是Java,有利于团队的组建,易于移交:2.Scala学习角度讲,比Java难.找Scala的高手比Java难,项目的维护和二次开发比较困难:3.很多人员有Java的基础,确保对Scala不是很熟悉的人可以编写课程中的案例预测:2016年Spark取代Map Reduce,拯救HadoopHadoop+Spark = A winning combat

大数据常见错误

1.用./bin/spark-shell启动spark时遇到异常:java.net.BindException: Can't assign requested address: Service 'sparkDriver' failed after 16 retries! 解决方法:add export SPARK_LOCAL_IP="127.0.0.1" to spark-env.sh 2.java Kafka producer error:ERROR kafka.utils.Util

基于Hadoop2.0、YARN技术的大数据高阶应用实战(Hadoop2.0\YARN\Ma

Hadoop的前景 随着云计算.大数据迅速发展,亟需用hadoop解决大数据量高并发访问的瓶颈.谷歌.淘宝.百度.京东等底层都应用hadoop.越来越多的企 业急需引入hadoop技术人才.由于掌握Hadoop技术的开发人员并不多,直接导致了这几年hadoop技术的薪水远高于JavaEE及 Android程序员. Hadoop入门薪资已经达到了8K以上,工作1年可达到1.2W以上,具有2-3年工作经验的hadoop人才年薪可以达到30万—50万. 一般需要大数据处理的公司基本上都是大公司,所以学

RDD案例(DT大数据梦工厂)

内容: 1.map.filter.flatmap等操作回顾: 2.reduceBykey.groupBykey: 3.jion.cogroug: 算子共同特点:都是最常用的算子,构建复杂算法的基石,都是lazy级别的,不属于action 创建SparkContext是Spark的起点,只有创建SparkContext,才能创建RDD ==========map============ 适用于任何元素且对其作用的集合中的每一个元素循环遍历,并调用其作为参数的函数对每一个遍历的元素进行具体化处理 =