《大转换》,计算会像电力一样变成基础设施,基本是作者10年前写的《IT不再重要》的修订版,3星。

本书英文版是2014年出的,基本是作者2004年的《IT不再重要》的修订版,还是在说《IT不再重要》的那个主题:计算会想电力一样变成技术设施,只需要按需购买。

以下是书中一些观点的摘抄:

我们有可能很快发现,那些我们认为是社会长期基础的东西,事实上只是临时的结构,它们很容易就会像亨利·伯登的大水车一样被弃用。#279

爱迪生发明了首个有生命力的电厂系统,但他无法从逻辑上解释下一步该做的事:所有的电都是由统一建设的大电厂发出的,并设有一个全国性电网来分发这种动力能源。爱迪生设想和实现的小型电厂系统,#346

小型电脑生意变得红火起来,使数字设备、王安电脑和阿波罗等公司迈入电脑行业的前列,但好景不长,小型电脑被证明只是一种过渡型机器。#629

一位分析家估计,Google公司完成一项运算任务所需成本只是普通公司的1/10。#779

虚拟化突破了软件和硬件之间的闭锁,正是这种闭锁使“客户—服务器运算”模式变得如此复杂低效。#895

如果没有庞大公用电网发出似乎无限的廉价电力,并通过遍及各地的电网送入几乎每一个工厂、办公室、商店、家庭和学校,那么很难想象现代社会会是目前这个样子——我们现在觉得很自然的样子。我们的社会是由塞缪尔·英萨尔的发电机塑造的。#1199

YouTube之所以能以很少的人力迅速建立起一个很大的生意,就是因为社会上有充足而价格低廉的处理能力、存储能力和通信带宽。#1503

得克萨斯州警察局于2006年沿美墨边境设立了网络摄像探头,并开始通过互联网传输视频信息。世界各地的人们现在均可监视该地区的非法移民,通过轻移鼠标来提醒得克萨斯州警察局注意可疑情况,这真是低成本执法。#1603

丹尼·希利斯——他在平行运算方面的先驱性研究为Google公司的系统扫平了道路——在1992年的一次采访中表示,人工智能可为改正人的智力缺点提供一个方法,可以解决“动物进化成人之前就存在的漏洞”,并导致产生“比我们更先进”的生物。#2484

在人工照明的发展史上,灯芯具有与轮子在交通史上一样的革命性质。#2682

时间: 2024-08-27 00:13:53

《大转换》,计算会像电力一样变成基础设施,基本是作者10年前写的《IT不再重要》的修订版,3星。的相关文章

大数据计算平台Spark内核全面解读

1.Spark介绍 Spark是起源于美国加州大学伯克利分校AMPLab的大数据计算平台,在2010年开源,目前是Apache软件基金会的顶级项目.随着Spark在大数据计算领域的暂露头角,越来越多的企业开始关注和使用.2014年11月,Spark在Daytona Gray Sort 100TB Benchmark竞赛中打破了由Hadoop MapReduce保持的排序记录.Spark利用1/10的节点数,把100TB数据的排序时间从72分钟提高到了23分钟. Spark在架构上包括内核部分和4

Cubert:LinkedIn开源的大数据计算引擎

近日, Linkedin 宣布开源其正在使用的大数据计算引擎 Cubert ,该框架提供了一种新的数据模型来组织数据,并使用诸如MeshJoin 和Cube算法等算法来对组织后的数据进行计算,从而减轻了系统负荷和节省了CPU资源,最终提供给用户一个简单.高效的查询.Cubert比较适合的计 算领域包括统计计算.聚合.时间距离计算.增量计算.图形计算等. Cubert整个架构可分为三层,第一层是数据流语言层,主要用来实现执行计划,包括 Apache Pig . Apache Hive 以及Cube

一文读懂大数据计算框架与平台

1.前言 计算机的基本工作就是处理数据,包括磁盘文件中的数据,通过网络传输的数据流或数据包,数据库中的结构化数据等.随着互联网.物联网等技术得到越来越广泛的应用,数据规模不断增加,TB.PB量级成为常态,对数据的处理已无法由单台计算机完成,而只能由多台机器共同承担计算任务.而在分布式环境中进行大数据处理,除了与存储系统打交道外,还涉及计算任务的分工,计算负荷的分配,计算机之间的数据迁移等工作,并且要考虑计算机或网络发生故障时的数据安全,情况要复杂得多. 举一个简单的例子,假设我们要从销售记录中统

SPARK大数据计算BUG处理:

大数据计算BUG处理: 程序修改前资源情况: Driver : 1台 Worker : 2台 程序提交申请内存资源 : 1G内存 内存分配情况 : 1. 20%用于程序运行 2. 20%用于Shuffle 3. 60%用于RDD缓存 单条TweetBean大小 : 3k 1. 内存溢出 原因:因为程序会把所有的TweetBean查询出来并且合并(union),该操作在内存中进行.则某个campaign数据量较大时,如500W数据,则500W*10k=50G,超出内存限制. 解决方法: 先按数据量

典型大数据计算模式与系统

典型大数据计算模式 典型系统 大数据查询分析计算 HBase,Hive,Cassandra,Impala,Shark,Hana等 批处理计算 Hadoop MapReduce,Spark等 流式计算 Scribe,Flume,Storm,S4, Spark Steaming等 迭代计算 HaLoop,iMapReduce,Twister,Spark等 图计算 Pregel,Giraph,Trinity,PowerGraph,GraphX等 内存计算 Dremel,Hana,Spark等

一分钟了解阿里云产品:大数据计算服务MaxCompute概述

阿里云发布了许多产品,今天让我们来了解下大数据计算服务MaxCompute这款产品吧. 什么是MaxCompute呢? MaxCompute是由阿里云自主研发,是阿里巴巴自主研发的海量数据处理平台.提供针对TB/PB级数据.实时性要求不高的分布式处理能力,应用于数据分析.挖掘.商业智能等领域.主要服务于批量结构化数据的存储和计算,可以提供海量数据仓库的解决方案以及针对大数据的分析建模服务.阿里巴巴的离线数据业务都运行在MaxCompute上. MaxCompute有什么优势和特点呢?下面让我来简

详说大数据计算的可类化Classable

可类化(Classable)是Laxcus大数据管理系统提供的一项基础功能,它能够将类转化为一串字节数组,或者逆向将字节数组转化为一个类.这项功能与JAVA提供的序列化(Serializable)非常相似,但是不同之处在于,可类化是可以由用户自己定义的,包括数据的选择.数据的样式.数据结构等一系列的规则. 这样的好处在于,我们摆脱了JAVA序列化的那种由系统硬性规定的固定格式,可以自由组织我们需要的数据,包括一些可能是私密的数据:不便在于,因为这种自由,程序员需要做些牺牲,编写代码来实现这项技术

揭秘阿里云EB级大数据计算引擎MaxCompute

日前,全球权威咨询与服务机构Forrester发布了<The Forrester WaveTM: Cloud Data Warehouse, Q4 2018>报告.这是Forrester Wave首次发布关于云数仓解决方案(Cloud Data Warehouse,简称CDW)的测评.报告对云数仓的当前产品功能.产品路线和发展策略.市场表现等几个方面进行全面的评估,在产品能力排行榜中,阿里云力压微软排行第7. Forrester测评报告对CDW核心功能的评估主要从解决方案的多样性.数据集成.性

通过 GOOGLE 大数据计算平台演进理解 APACHE FLINK 前世今生

一.背景 2019年1月,伴随 APACHE FLINK 母公司 Data Artisans 被 收购 ,FLINK 毫无争议成为继 SPARK 之后的新一代大数据计算平台,本文希望通过 GOOGLE 计算平台演进来更好的理解 FLINK. 二.GOOGLE 大数据计算平台演进 GOOGLE 作为搜索引擎的顶级公司,需要处理海量数据,其大数据计算平台的演进是行业的风向标:本文通过 GOOGLE 在该领域发表的论文进行剖析,希望从中提取一些演进的主线. 2.1 分布式的三篇经典 2003年,[Th