java8中的map 和reduce

map

1、使用map让集合里面的数字翻倍。

List<Integer> numbers = Lists.newArrayList(1,2,3,4,5);
List<Integer> doubleNumbers = numbers.stream()
.map(number -> number * 2)
.collect(Collectors.toList());
doubleNumbers.stream().forEach(r->System.out.println(r));

2、使用map可以对集合的数据进行处理然后返回其他类型的集合数据。如果是一个用户类的集合则可以使用这个方法获取用户姓名的列表。

List<String> collect = doubleNumbers.stream().map(n->”数字:”+n).collect(Collectors.toList());

reduce

3 、不提供初始值的reduce,返回值是Optional,表示可能为空,使用orElseGet可以返回一个null时的默认值

Optional<Integer> sum = numbers.stream().reduce((a, b) -> a + b);
Integer orElseGet = sum.orElseGet(() -> 0);
System.out.println(orElseGet);

结果是15

4.使用初始值的reduce,因为提供了初始值,所以返回值不再是Optional
Integer sum = numbers.stream()
.reduce(0, (a, b) -> a + b);

时间: 2024-12-17 15:35:38

java8中的map 和reduce的相关文章

javascript中的map和reduce

今天在看"廖雪峰官方网站"的js教程时,看到了map和reduce.其中有一个练习题是:不使用js内置的parseInt()函数,利用map和reduce操作实现一个string2int()函数(先将字符串转换为数组,再将数组转换为从arr[0]到arr[arr.(length-1)]的一个数字.比如:把[1, 3, 5, 7, 9]变换成整数13579. 我的解法: function toNum(str) { var arr=[]; for(var i=0;i<str.leng

python中的map和reduce学习

参考自:https://github.com/qiwsir/StarterLearningPython/blob/master/204.md#map https://github.com/qiwsir/StarterLearningPython/blob/master/204.md#reduce map(函数名/函数表达式(lambda等)/....  ,参数1,参数2) reduce(函数名/函数表达式(lambda等)/....  ,参数1) 区别: 1.参数:reduce除了函数外只允许一

Yarn中的Map和Reduce的优化

通过Hive执行的批次任务处理失败,Spark中报的错误日志如下: [plain] view plain copyERROR : Failed to monitor Job[ 3] with exception 'java.lang.IllegalStateException(RPC channel is closed.)' java.lang.IllegalStateException: RPC channel is closed. at com.google.common.base.Prec

Python中的 Map 和 Reduce

03 Map map()传入的第一个参数是f,map将f依次作用到序列的每个元素,并把结果作为新的Iterator返回. def f(x): return x * x 如果不用map,需要这么写: L = [] for n in [1, 2, 3, 4, 5, 6, 7, 8, 9]: L.append(f(n)) 用map一行代码搞定: list(map(f, [1, 2, 3, 4, 5, 6, 7, 8, 9])) 另外一个map例子: list(map(str, [1, 2, 3, 4,

Hadoop 中关于 map,reduce 数量设置

map和reduce是hadoop的核心功能,hadoop正是通过多个map和reduce的并行运行来实现任务的分布式并行计算,从这个观点来看,如果将map和reduce的数量设置为1,那么用户的任务就没有并行执行,但是map和reduce的数量也不能过多,数量过多虽然可以提高任务并行度,但是太多的map和reduce也会导致整个hadoop框架因为过度的系统资源开销而使任务失败.所以用户在提交map/reduce作业时应该在一个合理的范围内,这样既可以增强系统负载匀衡,也可以降低任务失败的开销

Python中的map( )和reduce( )

1.变量可以指向函数,也可以使用变量和参数的形式完成函数调用. 2.那么函数名是什么呢?函数名其实就是指向函数的变量!对于abs()这个函数,完全可以把函数名abs看成变量,它指向一个可以计算绝对值的函数! 3.可以对__builtin__模块中进行修改,则abs变量指向也会改变. 4.高阶函数就是将一个函数作为另一个函数的参数. 5.map()函数解释:接收两个参数,一个是函数,一个是Iterable,map将传入的函数依次作用到序列的每个元素,并把结果作为新的Iterator返回. 6.re

Python中的map与reduce函数简介

1.从参数方面来讲: map()函数: map()包含两个参数,第一个是参数是一个函数,第二个是序列(列表或元组).其中,函数(即map的第一个参数位置的函数)可以接收一个或多个参数. reduce()函数: reduce() 第一个参数是函数,第二个是 序列(列表或元组).但是,其函数必须接收两个参数. 2.从对传进去的数值作用来讲: map()是将传入的函数依次作用到序列的每个元素,每个元素都是独自被函数"作用"一次:(请看下面的栗子) reduce()是将传人的函数作用在序列的第

Spark RDD API详解(一) Map和Reduce

本文由cmd markdown编辑,原始链接:https://www.zybuluo.com/jewes/note/35032 RDD是什么? RDD是Spark中的抽象数据结构类型,任何数据在Spark中都被表示为RDD.从编程的角度来看,RDD可以简单看成是一个数组.和普通数组 的区别是,RDD中的数据是分区存储的,这样不同分区的数据就可以分布在不同的机器上,同时可以被并行处理.因此,Spark应用程序所做的无非是把需要 处理的数据转换为RDD,然后对RDD进行一系列的变换和操作从而得到结果

Java8中聚合操作collect、reduce方法详解

Stream的基本概念 Stream和集合的区别: Stream不会自己存储元素.元素储存在底层集合或者根据需要产生.Stream操作符不会改变源对象.相反,它会返回一个持有结果的新的Stream.3.Stream操作可能是延迟执行的,这意味着它们会等到需要结果的时候才执行.Stream操作的基本过程,可以归结为3个部分: 创建一个Stream.在一个或者多个操作中,将指定的Stream转换为另一个Stream的中间操作.通过终止(terminal)方法来产生一个结果.该操作会强制它之前的延时操