/**
* 1,默认情况下Map构造的是不可变的集合,里面的内容不可修改,一旦修改就变成新的Map,原有的Map内容保持不变;
* 2,Map的实例是调用工厂方法模式apply来构造Map实例,而需要主要的是Map是接口,在apply中使用了具体的实现;
* 3,如果想直接new出Map实例,则需要使用HashMap等具体的Map子类;
* 4,查询一个Map中的的值一定是采用getOrElse的语法的,一方面是在key不存的情况下不报告异常,另外还有一个神奇的作用就是提供默认值
* 而关于默认值的提供在实际开发中至关重要,在Spark中很多默认的配置都是通过getOrElse的方式来实现的;
* 5,使用SortedMap可以得到排序的Map集合;
* 6,LinkedHashMap可以记住插入的数据的顺序,这在实际开发中非常有用
*
*
* 7,Tuple中可以有很多不同类型的数据,例如("wangjialin", "male",30, "I am into spark so much!!!")
* 8,在企业级实际开发大数据的时候一定会反复的使用Tuple来表达数据结构,以及使用Tuple来处理业务逻辑
* 9,Tuple的另外一个非常重要的使用是作为函数的返回值,在Tuple中返回若干个值,以SparkContext源码为例来说明
* // Create and start the scheduler
* val (sched, ts) = SparkContext.createTaskScheduler(this, master)
* _schedulerBackend = sched
* _taskScheduler = ts
*/
1 package com.dtspark.scala.basics 2 3 object HelloMapTuple { 4 def main(args: Array[String]): Unit = { 5 6 val bigDatas = Map("Spark"->6, "Hadoop"->11) //调用工厂方法模式apply来构造Map实例,而需要主要的是Map是接口,在apply中使用了具体的实现 7 val persons = scala.collection.immutable.SortedMap(("jialingege", 30),("dtspark", 1),("hadoop",11)) 8 9 val programingLanguage = scala.collection.mutable.Map("Scala" -> 13, "Java"-> 23) 10 programingLanguage("Scala") = 15 11 12 for((name,age) <-programingLanguage) println(name + " : " + age) 13 println(programingLanguage.getOrElse("Python", "jialingege")) 14 15 16 17 val personsInformation = new scala.collection.mutable.LinkedHashMap[String, Int] 18 19 personsInformation += ("Scala" -> 13, "java"-> 23, "python" -> 10) 20 // personsInformation -=("Java") 21 for((name,age) <-personsInformation) println(name + " : " + age) 22 for(key <- personsInformation.keySet) println(key) 23 for(value <- personsInformation.values) println(value) 24 25 // val result = for((name,age) <-personsInformation) yield (age, name) 26 // for((age,name) <-result) println(age + " : " + name) 27 28 for((name,age) <-persons) println(name + " : " + age) 29 30 31 val information = ("wangjialin", "male",30, "I am into spark so much!!!") 32 println(information._4) 33 34 35 } 36 }