Hue的安装与部署

Hue的安装与部署

hadoop

hue

Hue 简介

Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于Python Web框架Django实现的。通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行MapReduce Job等等。很早以前就听说过Hue的便利与强大,一直没能亲自尝试使用,下面先通过官网给出的特性,通过翻译原文简单了解一下Hue所支持的功能特性集合:

  • 默认基于轻量级sqlite数据库管理会话数据,用户认证和授权,可以自定义为MySQL、Postgresql,以及Oracle
  • 基于文件浏览器(File Browser)访问HDFS
  • 基于Hive编辑器来开发和运行Hive查询
  • 支持基于Solr进行搜索的应用,并提供可视化的数据视图,以及仪表板(Dashboard)
  • 支持基于Impala的应用进行交互式查询
  • 支持Spark编辑器和仪表板(Dashboard)
  • 支持Pig编辑器,并能够提交脚本任务
  • 支持Oozie编辑器,可以通过仪表板提交和监控Workflow、Coordinator和Bundle
  • 支持HBase浏览器,能够可视化数据、查询数据、修改HBase表
  • 支持Metastore浏览器,可以访问Hive的元数据,以及HCatalog
  • 支持Job浏览器,能够访问MapReduce Job(MR1/MR2-YARN)
  • 支持Job设计器,能够创建MapReduce/Streaming/Java Job
  • 支持Sqoop 2编辑器和仪表板(Dashboard)
  • 支持ZooKeeper浏览器和编辑器
  • 支持MySql、PostGresql、Sqlite和Oracle数据库查询编辑器

Hue的架构:

hue官网:http://gethue.com/

配置文档:http://archive.cloudera.com/cdh5/cdh/5/hue-3.7.0-cdh5.3.6/manual.html#_install_hue

源码:https://github.com/cloudera/hue

这里我们直接用下载Hue:http://archive.cloudera.com/cdh5/cdh/5/hue-3.7.0-cdh5.3.6.tar.gz

Hue 编译

  1. 需要连接互联网

    修改虚拟机网络配置

  2. 安装系统包

    yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi gcc gcc-c++ krb5-devel libtidy libxml2-devel libxslt-devel openldap-devel python-devel sqlite-devel openssl-devel mysql-devel gmp-devel

    在实际安装的时候,sqlite-devel不能从镜像下载,这里我是用了手动下载tar包,安装编译:

    下载地址: http://www.sqlite.org/sqlite-autoconf-3070500.tar.gz

    tar zxf sqlite-autoconf-3070500.tar.gz
    cd sqlite-autoconf-3070500
    ./configure
    make
    sudo make install
    
  3. 编译Hue
    tar zxf hue-3.7.0-cdh5.3.6.tar.gz /opt/cdh5/
    cd /opt/cdh5/hue-3.7.0-cdh5.3.6/
    make apps
    
  4. 配置Hue
    secret_key=jFE93j;2[290-eiw.KEiwN2s3[‘d;/.q[eIW^y#e=+Iei*@Mn<qW5o
    # Webserver listens on this address and port
    http_host=hadoop
    http_port=8888
    # Time zone name
    time_zone=Asia/Shanghai
    
  5. 启动Hue
    ${HUE_HOME}/build/env/bin/supervisor
    
  6. 打开hue的浏览器页面:hadoop:8888

Hue与HDFS,YARN集成

  1. Hue与Hadoop集成时,需要配置启动HDFS中的webHDFS,在hdfs-site.xml增加下面配置:

    <property>
      <name>dfs.webhdfs.enabled</name>
      <value>true</value>
    </property>
    
  2. 此外,还需要配置Hue访问HDFS用户权限,在core-site.xml中配置:
    <property>
        <name>hadoop.http.staticuser.user</name>
        <value>hadoop</value>
    </property> 
    
    <property>
      <name>hadoop.proxyuser.hue.hosts</name>
      <value>*</value>
    </property>
    <property>
      <name>hadoop.proxyuser.hue.groups</name>
      <value>*</value>
    </property>
    

    完成上述配置后,需重启HDFS。

  3. 配置Hue
    [[hdfs_clusters]]
      # HA support by using HttpFs
    
      [[[default]]]
      fs_defaultfs=hdfs://hadoop:8020
    
      # Directory of the Hadoop configuration
      hadoop_conf_dir=/opt/cdh5/hadoop-2.5.0-cdh5.3.6/etc/hadoop
    
      # This is the home of your Hadoop HDFS installation.
      hadoop_hdfs_home=/opt/cdh5/hadoop-2.5.0-cdh5.3.6
    
      # Use this as the HDFS Hadoop launcher script
      hadoop_bin=/opt/cdh5/hadoop-2.5.0-cdh5.3.6/bin
    
    # Configuration for YARN (MR2)
    # ------------------------------------------------------------------------
    [[yarn_clusters]]
    
      [[[default]]]
      # Enter the host on which you are running the ResourceManager
       resourcemanager_host=hadoop
    
      # The port where the ResourceManager IPC listens on
       resourcemanager_port=8032
    
      # Whether to submit jobs to this cluster
      submit_to=True
    
      # URL of the ResourceManager API
       resourcemanager_api_url=http://hadoop:8088
    
      # URL of the ProxyServer API
       proxy_api_url=http://hadoop:8088
    
      # URL of the HistoryServer API
       history_server_api_url=http://hadoop:19888
    

    重启Hue服务。这里我们可以通在远程cmd中运行hive,在Hue中查看任务运行状况

Hue与Hive的集成

  1. hive-site.xml:

    注:metastore应该作为一个服务起来,然后让客户端去连接这个服务,去读mysql数据库里面的数据,可以参考hive官网上的Administrator Documentation中的Setting Up MetaStore

    <property>
      <name>hive.metastore.uris</name>
      <value>thrift://hadoop:9083</value>
      <description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description>
    </property>
    

    配置完成以后,需启动服务: nohup {$HIVE_HOME}/bin/hive --service metastore &

    nohup {$HIVE_HOME}/bin/hiveserver2 &

  2. hue.ini
    # Host where HiveServer2 is running.
    # If Kerberos security is enabled, use fully-qualified domain name (FQDN).
    hive_server_host=hadoop
    
    # Port where HiveServer2 Thrift server runs on.
    hive_server_port=10000
    
    # Hive configuration directory, where hive-site.xml is located
    hive_conf_dir=/opt/cdh5/hive-0.13.1-cdh5.3.6/conf
    
    # Timeout in seconds for thrift calls to Hive service
    server_conn_timeout=120
    

    注:重新启动hive和hue以后,可能在hue中运行sql时会出现错误,因为权限问题,hue登陆的用户和hdfs上创建表的用户不相同,这个时候需要用hadoop的命令在后台做出更改bin/hdfs dfs -R o+x /xx

Hue与RDBMS的集成

  1. 在hue.ini中配置Hue本身的数据库SQLite

    [[[sqlite]]]
    # Name to show in the UI.
    nice_name=SQLite
    
    # For SQLite, name defines the path to the database.
    name=/opt/cdh5/hue-3.7.0-cdh5.3.6/desktop/desktop.db
    
    # Database backend to use.
    engine=sqlite
    
  2. 在hue.ini中配置Mysql数据库
    # Name to show in the UI.
    nice_name="My SQL DB"
    ## nice_name=MySqlDB
    # For MySQL and PostgreSQL, name is the name of the database.
    # For Oracle, Name is instance of the Oracle server. For express edition
    # this is ‘xe‘ by default.
    ## name=db_track
    
    # Database backend to use. This can be:
    # 1. mysql
    # 2. postgresql
    # 3. oracle
    engine=mysql
    
    # IP or hostname of the database to connect to.
    host=hadoop
    
    # Port the database server is listening to. Defaults are:
    # 1. MySQL: 3306
    # 2. PostgreSQL: 5432
    # 3. Oracle Express Edition: 1521
    port=3306
    
    # Username to authenticate with when connecting to the database.
    user=root
    
    # Password matching the username to authenticate with when
    # connecting to the database.
    password=123456
    

    重启hue服务,可以在页面中看到配置的数据库了:

时间: 2024-10-24 09:14:21

Hue的安装与部署的相关文章

[原创]HBase学习笔记(1)-安装和部署

HBase安装和部署 使用的HBase版本是1.2.4 1.安装步骤(默认hdfs已安装好) # 下载并解压安装包 cd tools/ tar -zxf hbase-1.2.4-bin.tar.gz   # 重命名为hbase mv hbase-1.2.4 hbase # 将hadoop目录下的hdfs-site.xml 和 core-stie.xml拷贝到 hbase下的conf 目录中 cd /home/work/tools/hbase/conf cp /home/work/tools/ha

Maven中手动安装或部署jar

一些第三方jar包我们需要手动进行安装部署,另外如果使用nexus时索引未更新下来急于使用时也可以进行安装或部署.安装(install)仅将相应jar包安装到了本地仓库,而部署(deploy)则将jar包部署到了私有仓库中.如下两段代码分别是命令行形式下安装oracle 的jdbc驱动包,和部署surefire-junit包到私服上的代码. <span style="font-size:12px;">mvn install:install-file -DgroupId=co

【Mysql】Mysql的安装、部署与图形化

Mysql是一个必须学会如何安装与部署的工具,它不同于其它那些傻瓜式的应用/程序,一键到底,如果是初次在Windows下安装Mysql的初学者还是有一定难度的. 本文配合之前的<[Javaweb]前台开发环境的配置Myeclipse6.5+JDK1.6+Tomcat6.0+SVN1.8>(点击打开链接)一文中的前台开发环境的部署,也就形成了JavaWeb.JSP.J2EE的基本开发环境. 一.Mysql的下载 首先打开Mysql的官网(点击打开链接),百度一下是搜不到的,我也找了很久才找到My

gitlab 安装及部署

Gitlab 安装部署 GitLab,是一个使用 Ruby on Rails 开发的开源应用程序,与Github类似,能够浏览源代码,管理缺陷和注释,非常适合在团队内部使用. 安装步骤 n升级系统并及关闭selinux和iptables n安装Ruby n创建项目运行用户(创建git账号,方便权限管理) nGitLab Shell n数据库(可以支持mysql和PostgreSQL,这里使用mysql) nGitLab(版本:6.3.1) nWeb服务器(可支持nginx和apache,这里使用

RabbitMQ分布式消息队列服务器(一、Windows下安装和部署)

RabbitMQ消息队列服务器在Windows下的安装和部署-> 一.Erlang语言环境的搭建 RabbitMQ开源消息队列服务是使用Erlang语言开发的,因此我们要使用他就必须先进行Erlang语言环境的搭建,其实是非常简单的. 登录Erlang官网,进入下载页,官网地址->http://www.erlang.org/downloads 然后按照自己的系统环境来选择需要下载的安装文件. 我选择 64-bit下载包,因为我的操作系统是64位的 接下来我们需要对Erlang语言的环境变量的配

SequoiaDB 系列之一 :SequoiaDB的安装、部署

在分析或者参与一个开源项目之前,了解项目构建的目的是有必要的. 既然SequoiaDB是NoSQL数据库产品,则必然存在于传统关系型数据库相同的功能点:数据的增.删.改和查询(CRUD). 先了解怎么用,再在会用的基础上,进一步分析其实现. 在上一篇中已经列出的安装环境,以及SequoiaDB的下载地址. 具备以上条件之后,然后咱就行动吧. 本篇文章的内容是安装和部署一个集群环境(也可以是独立数据节点的环境,看个人的喜好了.独立模式的部署可以去SequoiaDB官网的信息中心获取) 进入终端,切

FireBreath插件安装和部署

好不容易............ 相信有很多和我一样的小白对FireBreath开发出来的npapi插件如何安装和部署不知所措. 之前一直使用regsvr32.exe在弄. 但是真正的使用是在当网页需要插件的时候,点击下载然后安装插件,重启浏览器就可以使用插件的功能了的. 所以必须将做好的插件打包,客户直接点击就能安装使用,不用管里面是如何进行的. 在网上查到的资料很少涉及到打包和部署的. 最开始使用的是vs2010里面的vs Install做的,按照一个bolg做的,但是做出来之后发现只能是F

Lucene/Solr搜索引擎开发系列 - 第2章 Solr安装与部署(Tomcat篇)

一.安装环境 图1-1 Tomcat和Solr的版本     我本机目前使用的Java版本为JDK 1.8,因为Solr 4.9要求Java版本为1.7+,请注意. 二.Solr部署到Tomcat流程 图1-2 Tomcat安装目录     1.如图1-2所示,为Tomcat的解压目录: 图1-3 Tomcat首页     2.在目录E:\apache-tomcat-8.0.9\bin中,找到startup.bat文件,双击该文件,启动Tomcat服务器,等待几秒钟后,在浏览器中输入http:/

Hive安装与部署集成mysql

前提条件: 1.一台配置好hadoop环境的虚拟机.hadoop环境搭建教程:稍后补充 2.存在hadoop账户.不存在的可以新建hadoop账户安装配置hadoop. 安装教程: 一.Mysql安装 1.安装mysql命令:Yum install mysql-server -y (-y参数作用为所有需要输入yes的地方默认yes) 2.打开mysql服务:Service mysqld start 3.设置mysql服务开机自启动(也可以不设置,开机手动启动):chkconfig –add my