大数据不就是写SQL吗?

【原创,转载请注明出处】

应届生小祖参加了个需求分析会回来后跟我说被产品怼了一句:

"不就是写SQL吗,要那么久吗"

我去,欺负我小弟,这我肯定不能忍呀,于是我写了一篇文章发在了公司的wiki

贴出来给大家看看,省略了一些敏感的内容。当然内部版言辞也会温和一点,嘻嘻

在哪里写SQL?

这个问题高级点的问法是用哪种SQL引擎?

SparkSQL、Hive、Phoenix、Drill、Impala、Presto、Druid、Kylin (这里的SQL引擎是广义的,大家不必钻牛角尖)

我用一句话概括下这几个东西,先不管你们现在看不看得懂:

  • Hive:把sql解析后用MapReduce跑
  • SparkSQL:把sql解析后用Spark跑,比hive快点
  • Phoenix:一个绕过了MapReduce运行在HBase上的SQL框架
  • Drill/Impala/Presto 交互式查询,都是类似google Dremel的东西,区别这里就不说了
  • Druid/Kylin olap预计算系统

这就涉及到更多的问题了,对这些组件不熟悉的同学可能调研过程就得花上一个多月。

比如需求是实时计算还是离线分析?

数据是增量数据还是静态数据?

数据量有多大?

能容忍多长的响应时间?

总之,功能、性能、稳定性、运维难度、开发难度这些都是要考虑的

对哪里的数据执行SQL?

你以为选完引擎就可以开写了?too naive!

上面提到的大部分工具都仅仅是查询引擎,存储呢?

“啥,为啥还要管存储?”

不管存储,那是要把PB级的数据存在mysql是吧...

关系型数据库像mysql这种,查询引擎和存储是紧耦合的,这其实是有助于优化性能的,你不能把它们拆分开来。

而大数据系统SQL引擎一般都是独立于数据存储系统,获得了更大的灵活性。这都是出于数据量和性能的考虑

这涉及到的问题就更多了。先要搞清楚引擎支持对接哪些存储,怎么存查询起来方便高效。

可以对接的持久化存储我截个图,感受一下(这还只是一小部分)

用哪种语法写SQL?

你以为存储和查询搞定就可以开写了?你以为全天下的sql都是一样的?并不是!

并不是所有的引擎都支持join

并不是所有的distinct都是精准计算的

并不是所有的引擎都支持limit分页

还有,如果处理复杂的场景经常会需要自定义sql方法,那如何自定义呢,写代码呀

举几个简单而常见的栗子:

见过这样的sql吗?

select `user`["user_id"] from tbl_test ;

见过这种操作吗?

insert overwrite table tbl_test select * from tbl_test  where id>0; 

卧槽,这不会锁死吗?hive里不会,但是不建议这样做。

还能这么写

from tbl_test insert overwrite table tbl_test select *   where id>0; 

怎么用更高效的方式写SQL?

好了,全都搞定了,终于可以开始愉快地写SQL了。

写SQL的过程我用小祖刚来公司时的一句话来总结:

“卧槽,这条SQL有100多行!”

事实表,维表的数据各种join反复join,这还不算完还要再join不同时间的数据,还要$#@%^$#^...

不说了,写过的人一定知道有多恶心

(此处省略100多行字)

终于写完了,千辛万苦来到这一步,满心欢喜敲下回车...

时间过去1分钟...

10分钟...

30分钟...

1小时...

2小时...

......

别等了,这样下去是不会有结果的。

老实看日志吧,看日志也是一门很大的学问。

首先你得搞清楚这个sql是怎么运行,底层是mapReduce还是spark还是解析成了其他应用的put、get等接口;

然后得搞清楚数据是怎么走的,有没有发生数据倾斜,怎么优化

同时你还得注意资源,cpu、内存、io等

最后

产品又来需求了,现有系统还无法实现,上面四步再折腾一遍...

推荐阅读

大数据需要学什么?

zookeeper-操作与应用场景-《每日五分钟搞定大数据》

zookeeper-架构设计与角色分工-《每日五分钟搞定大数据》

zookeeper-paxos与一致性-《每日五分钟搞定大数据》

zookeeper-zab协议-《每日五分钟搞定大数据》

原文地址:https://www.cnblogs.com/uncleData/p/9729344.html

时间: 2024-11-07 02:11:55

大数据不就是写SQL吗?的相关文章

千万级大数据的Mysql数据库SQL语句优化

1.对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引. 2.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:select id from t where num is null可以在num上设置默认值0,确保表中num列没有null值,然后这样查询:select id from t where num=0 3.应尽量避免在 where 子句中使用!=或<>操作符,否则引擎将放弃使用

大数据量下的SQL Server数据库自身优化 (转载)

1.1:增加次数据文件 从SQL SERVER 2005开始,数据库不默认生成NDF数据文件,一般情况下有一个主数据文件(MDF)就够了,但是有些大型的数据库,由于信息很多,而且查询频繁,所以为了提高查询速度,可以把一些表或者一些表中的部分记录分开存储在不同的数据文件里 由于CPU和内存的速度远大于硬盘的读写速度,所以可以把不同的数据文件放在不同的物理硬盘里,这样执行查询的时候,就可以让多个硬盘同时进行查询,以充分利用CPU和内存的性能,提高查询速度. 在这里详细介绍一下其写入的原理,数据文件(

大数据入门级学习:SQL与NOSQL数据库

这几年的大数据热潮带动了一激活了一大批hadoop学习爱好者.有自学hadoop的,有报名培训班学习的.所有接触过hadoop的人都知道,单独搭建hadoop里每个组建都需要运行环境.修改配置文件测试等过程.对于我们这些入门级新手来说简直每个都是坑.国内的发行版hadoop那么多,似乎都没有来填这样的坑?不知道是没法解决,还是没有想到?安装运行环境这样的坑,那些做国产大数据底层开发的,如果不能解决这个问题的话,我觉得不是一个合格的大数据底层开发机构.不过比较幸运的是,三月的时候申请拿到了一个DK

大数据时代下的SQL Server第三方负载均衡方案----Moebius测试

一.本文所涉及的内容(Contents) 本文所涉及的内容(Contents) 背景(Contexts) 架构原理(Architecture) 测试环境(Environment) 安装Moebius(Install) Moebius测试(Testing) 负载均衡测试(Load Balancing Testing) 高可用性测试(Failover Testing) 数据安全性测试(Security Testing) 总结(Summary) 二.背景(Contexts) 前几天在SQL Serve

大数据?这些你了解吗?(新手)

一.学习大数据需要的基础 java SE,EE(SSM)        90%的大数据框架都是java写的    MySQL        SQL on Hadoop    Linux        大数据的框架安装在Linux操作系统上 二.需要学什么 第一方面:大数据离线分析 一般处理T+1数据            Hadoop 2.X:(common.HDFS.MapReduce.YARN)                环境搭建,处理数据的思想            Hive:    

大数据和你想的不一样

1.对,我们做大数据的也写普通的 Java 代码,写普通的 SQL. 比如 Java API版的 Spark 程序,长得跟 Java8 的Stream API 一样一样的. JavaRDD<String> lines = sc.textFile("data.txt");JavaRDD<Integer> lineLengths = lines.map(s -> s.length());int totalLength = lineLengths.reduce(

CDH6.3.1安装详细步骤(感写B站若泽大数据)

0. 主机规划 虚拟机主机 IP 资源(CPU/内存/硬盘) 所在ESXi(IP) Tools 192.168.1.30 04 Core/8 GB/10 TB 192.168.1.202 CDH-server01 192.168.1.31 32 Core/64 GB/3 TB 192.168.1.202 CDH-agent01 192.168.1.41 16 Core/32 GB/3 TB 192.168.1.202 CDH-agent02 192.168.1.42 16 Core/32 GB/

Sqlite大数据写入性能优化

众所周知,Sqlite是一个轻量级的数据库,仅仅需要一个exe文件就能运行起来.在处理本地数据上,我比较喜欢选择使用它,不仅是因为他与sql server有着比较相近的语法,还因为它不需要安装,仅需要通过命令行就能启动了,而且他在处理大数据时,性能比sql server好很多,好吧这里不继续争论性能优劣. 首先,这次的问题是在一次项目中遇到的,项目要求能大量导入数据,而且由于项目性质(轻便,本地化),所以我选择sqlite来存放数据. 第一版代码: 1 StringBuilder sql = n

CLOB大数据对象

处理CLOB大数据对象 import java.sql.SQLException ; import java.sql.DriverManager ; import java.sql.ResultSet ; import java.sql.Connection ; import java.sql.PreparedStatement ; import java.io.File ; import java.io.FileInputStream; import java.io.InputStream ;