熟悉常用的HBASE 操作

1.查看所有表

package cn.edu.zucc.hbase;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
public class ListTables {
    public static Configuration configuration;
    public static Connection connection;
    public static Admin admin;
    public static void listTables() throws IOException
    {
        init();
        HTableDescriptor[] hTableDescriptors = admin.listTables();
        for (HTableDescriptor hTableDescriptor : hTableDescriptors)
        {
            System.out.println("表名:" + hTableDescriptor.getNameAsString());
            }
        close();
        }
    public static void init()
    {
        configuration = HBaseConfiguration.create();
        configuration.set("hbase.rootdir", "hdfs://localhost:9000/hbase");
        try
        {
            connection = ConnectionFactory.createConnection(configuration); admin = connection.getAdmin();
        }
        catch (IOException e)
        {
            e.printStackTrace();

        } 

    }
    public static void close()
    {
        try
        {
            if (admin != null)
            {
                admin.close(); 

            }
            if (connection != null)
            {
                connection.close(); 

            } 

        }
        catch (IOException e)
        {
            e.printStackTrace(); 

        } 

    }
    public static void main(String[] args)
    {
        try
        {
            listTables();
        }
        catch (IOException e)
        {
            e.printStackTrace();
        }
    }
}

2.添加一行数据

package cn.edu.zucc.hbase;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.*;
import java.io.IOException;
public class InsertRow
{
    public static Configuration configuration;
    public static Connection connection;
    public static Admin admin;
    public static void insertRow(String tableName, String rowKey, String colFamily, String col, String val) throws IOException
    {
        init();
        Table table = connection.getTable(TableName.valueOf(tableName));
        Put put = new Put(rowKey.getBytes()); put.addColumn(colFamily.getBytes(), col.getBytes(), val.getBytes());
        table.put(put); table.close(); close();

    }
    public static void init()
    {
        configuration = HBaseConfiguration.create();
        configuration.set("hbase.rootdir", "hdfs://localhost:9000/hbase");
        try
        {
            connection = ConnectionFactory.createConnection(configuration);
            admin = connection.getAdmin(); } catch (IOException e) { e.printStackTrace();
        }
    }
    public static void close()
    {
        try
        {
            if (admin != null)
            {
                admin.close();
            }
            if (null != connection)
            {
                connection.close();
            }
        }
        catch (IOException e)
        {
            e.printStackTrace();
        } 

    }
    public static void main(String[] args)
    {
        try
        {
            insertRow("student", "20160000", "score", "math", "100");
        }
        catch (IOException e)
        {
            e.printStackTrace();
        }
    }
}

原文地址:https://www.cnblogs.com/wxd136/p/9775436.html

时间: 2024-10-10 05:44:41

熟悉常用的HBASE 操作的相关文章

熟悉常用的HBase操作

1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23   2015003 Mary female 22   2015003 Lisi male 24 数学(Math)85 create 'Student', ' S_No ','S_Name', 'S_Sex','S_A

熟悉常用的HBase操作,编写MapReduce作业

1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23   2015003 Mary female 22   2015003 Lisi male 24 数学(Math)85 2. 用Hadoop提供的HBase Shell命令完成相同任务: 列出HBase所有的表的相关信

Tutorial 02_熟悉常用的HDFS操作

Shell命令实现: (1)向HDFS 中上传任意文本文件,如果指定的文件在HDFS 中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件: (2) 从HDFS 中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名:   (3) 将HDFS 中指定文件的内容输出到终端中: (4) 显示HDFS 中指定的文件的读写权限.大小.创建时间.路径等信息: (5) 给定HDFS 中某一个目录,输出该目录下的所有文件的读写权限.大小.创建时间. 路径等信息,如果该文件是目

熟悉常用的Linux操作

请按要求上机实践如下linux基本命令. cd命令:切换目录 (1)切换到目录 /usr/local cd /usr/local (2)去到目前的上层目录 cd ... (3)回到自己的主文件夹 cd ~ ls命令:查看文件与目录 (4)查看目录/usr下所有的文件 Ls /usr mkdir命令:新建新目录 (5)进入/tmp目录,创建一个名为a的目录,并查看有多少目录存在 Cd /tmp Mkdir a (6)创建目录a1/a2/a3/a4 Mkdir –p a1/a2/a3/a4 rmdi

熟悉常用Linux的操作

请按要求上机实践如下linux基本命令. cd命令:切换目录 (1)切换到目录 /usr/local cd/root/usr/local (2)去到目前的上层目录 cd.. (3)回到自己的主文件夹 cd~ ls命令:查看文件与目录 (4)查看目录/usr下所有的文件 ls/usr -al~ mkdir命令:新建新目录 (5)进入/tmp目录,创建一个名为a的目录,并查看有多少目录存在 cd/tmp mkdir a ls -l (6)创建目录a1/a2/a3/a4 mkdir -p a1/a2/

熟悉常用的HDFS操作

在本地Linux文件系统的"/home/hadoop/"目录下创建一个文件txt,里面可以随意输入一些单词. mkdir hadoop cd hadoop touch 123.txt gedit 123.txt 在本地查看文件位置(ls) ls -al 在本地显示文件内容 gedit 123.txt 使用命令把本地文件系统中的"txt"上传到HDFS中的当前用户目录的input目录下. cd /usr/local/hadoop ./sbin/start-dfs.sh

第三章 熟悉常用的HDFS操作

编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的"/home/hadoop/"目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 mkdir hadoop cd hadoop touch dw777.txt gedit dw777.txt 使用命令把本地文件系统中的"txt"上传到HDFS中的当前用户目录的input目录下. ./sbin/start-dfs.sh

关于黑客,你了解多少?----黑客入门学习(常用术语+DOS操作)

关于黑客,你了解多少?----黑客入门学习(常用术语+DOS操作) ·1.1·前言 黑客一次是由英语"Hacker"英译出来的,是指专门研究.发现计算机和网络漏洞的计算机爱好者,他们伴随着计算机和网络的发展而产生成长.黑客对计算机有着狂热的兴趣和执着的追求,他们不断的研究计算机和网络知识,发现计算机和网络中存在的漏洞,喜欢挑战高难度的网络系统并从中找到漏洞,然后向管理员提出解决和修补漏洞的方法. 黑客的出现推动了计算机和网络的发展与完善.他们所做的不是恶意破坏,他们是一群纵横于网络的大

InfluxDB从原理到实战 - InfluxDB常用的基础操作

0x00 基础操作介绍 在本文中将介绍InfluxDB常用的基础操作,帮助读者建立对InfluxDB的感性认识,快速的动手玩起来,持续查询(Continuous Queies).Group by.Series.行协议(Line Protocol).InfluxQL等高级特性和细节,将会在后续文章中逐步介绍.    InfluxDB支持类SQL的操作接口,尽管因为时序数据的特点,InfluxDB是非CRUD的,不支持更新数据.删除单条数据操作,但考虑到大多数的读者对应CRUD的关系型数据库比较熟悉