在eclipse下操作HDFS

//方法一通过一个类IOUtils来实现

写文件 create 读取文件 open 删除文件delete


创建目录 mkdirs 删除文件或目录 delete 列出目录的内容 listStatus 显示文件系统的目录和文件的元数据信息 getFileStatus

package hdfs;

import java.io.InputStream;
import java.net.MalformedURLException;
import java.net.URL;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;

public class App1 {

    /**
     * @param args
     */
                //首先定义一个连接hadoop的URI(标识符和URL做区别)
    public static final String HDFS_PATH="hdfs://hadoop:9000/hello";

public static void main(String[] args) throws  Exception {
        // TODO Auto-generated method stub
        //url不认识hdfs://所以需要解析器
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
                            //用静态类IOUtils.copyBytes()
        URL url = new URL(HDFS_PATH);
            InputStream in = url.openStream();

            IOUtils.copyBytes(in, System.out , 1024, true );

    }

}
//方法二用过类FileSystem中方法.mkdir   .create    .open   get
package hdfs;

import java.io.FileInputStream;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import java.net.URL;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.FileSystemTestHelper.fileType;
import org.apache.hadoop.io.IOUtils;

public class App2 {

    public static final String HDFS_PATH="hdfs://hadoop:9000";
    public static final String DIR_PATH="/d1000";
    public static final String FILE_PATH="/d1000/f1000";
    public static void main(String[] args) throws Exception, URISyntaxException {
/*
        final  FileSystem fileSystem = FileSystem.get(new URI(HDFS_PATH),new Configuration() );

        //创建文件mkdir
        fileSystem.mkdirs(new Path(DIR_PATH));
        //上传文件create
        FSDataOutputStream out = fileSystem.create(new Path(FILE_PATH));
        FileInputStream in= new FileInputStream("C:/Users/Administrator/Desktop/01.txt");
        IOUtils.copyBytes(in,out,1024,true);
        //下载文件open
        final FSDataInputStream in2= fileSystem.open(new Path(FILE_PATH));
        IOUtils.copyBytes(in2, System.out, 1024,true );
        //删除文件delete
        fileSystem.delete(new Path(FILE_PATH), true);*/
        FileSystem fileSystem = FileSystem.get(new URI(HDFS_PATH),new Configuration());
        //mkdir
        fileSystem.mkdirs(new Path(DIR_PATH));
        //上传create创造目标通道
        FSDataOutputStream out = fileSystem.create(new Path(FILE_PATH));
        FileInputStream in = new FileInputStream("C:/Users/Administrator/Desktop/01.txt");
        IOUtils .copyBytes(in,out , 1024, true);
        //下载文件open一个通道
        FSDataInputStream in2 = fileSystem.open(new Path(FILE_PATH));
        IOUtils.copyBytes(in2, System.out ,1024,true);
        //删除delete
        fileSystem.delete(new Path(DIR_PATH),true );
    }

}
时间: 2024-12-03 02:51:10

在eclipse下操作HDFS的相关文章

[Hbase]eclipse下操作hbase

ubuntu14.04,eclipse下操作hbase.下面是一个利用hbase java api操作hbase,查看hbase中表student1列族情况的example: import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HColumn

eclipse下安装配置hadoop(含WordCount程序测试)

这里我为大家介绍如何在windows下安装配置hadoop.,以及测试一个程序 所需要使用的插件和分别有: 一.准备工作 1.eclipse,最好是JAVAEE版本的,以为可以改变模式. 2.hadoop和eclipse的连接器: hadoop-eclipse-plugin-1.2.1.jar(这个是我所使用的,在这里可以自定义选取版本) 3.是hadoop源码包(下载最新的就可以). 将hadoop-0.20.2-eclipse-plugin.jar 复制到eclipse/plugins目录下

java操作hdfs实例

环境:window7+eclipse+vmware虚拟机+搭建好的hadoop环境(master.slave01.slave02) 内容:主要是在windows环境下,利用eclipse如何来操作hdfs,如上传文件.删除文件.创建文件夹.查看节点信息等. eclipse开发环境的搭建,请参考:http://www.cnblogs.com/bookwed/p/4816521.html 1.新建maven项目,(主要是因为要引入一些jar包,除非是特别清楚要引入哪些jar包可以不用建maven项目

Eclipse可视化操作数据库

Eclipse可视化操作MySQL: 1.打开Data Source Explorer窗口. Eclipse > window > show view > other > Data management 选中Data Source Explorer点击OK,即可在当前页面打开. 2.配置数据库连接. 在Data Source Explorer窗口中点击Database Connection右键,点击new打开新窗口. 选择自己的数据库,点击next,进入下面这个界面(第一次会碰到,

Eclipse下的java工程目录问题和路径问题理解

1.Eclipse下的java工程都有哪些文件夹? 答:new java project时,会默认创建SRC源代码目录,并默认创建一个bin目录作为输出目录,输出目录是指生成的class文件和配置文件地址. 所以Eclipse创建的java工程,默认就两个文件夹,src和bin. 2.当点击Eclipse运行时候java jdk会默认执行编译,并将编译后的java文件,生成class文件放到项目目录下的bin文件夹里,以.class命名结尾. 注:即使某个类有bug错误,不能编译通过.但只要点击

eclipse 下启动tomcat错误

启用tomcat时报错. FATAL ERROR in native method: JDWP No transports initialized, jvmtiError=JVMTI_ERROR_INTERNAL(113) ERROR: transport error 202: gethostbyname: unknown host ["transport.c",L41] ERROR: JDWP Transport dt_socket failed to initialize, TRA

HDFS是什么?HDFS适合做什么?我们应该怎样操作HDFS系统?(第3篇)

第四章  HDFS文件系统 Hadoop 附带了一个名为 HDFS(Hadoop分布式文件系统)的分布式文件系统,专门存储超大数据文件,为整个Hadoop生态圈提供了基础的存储服务. 本章内容: 1) HDFS文件系统的特点,以及不适用的场景 2) HDFS文件系统重点知识点:体系架构和数据读写流程 3) 关于操作HDFS文件系统的一些基本用户命令 1. HDFS特点: HDFS专为解决大数据存储问题而产生的,其具备了以下特点: 1) HDFS文件系统可存储超大文件 每个磁盘都有默认的数据块大小

Eclipse下配置javaweb项目快速部署到tomcat

用惯了VS,再用Eclipse,完全有一种从自动挡到手动挡的感觉啊. 很多同学在Eclipse下开发web项目,每一次修改代码,看效果的时候都有右键项目->Run as -> Run on server,然后慢吞吞的打开Eclipse的内建浏览器,显示如下一个界面,让人看起来分外忧郁! 在网上查了一圈,其它的方式基本都在教大家将项目发布到tomcat目录的webapp目录下,虽然比默认方式要好些,但是http://localhost:8080/InskyScheduleCenter/之类的ur

Eclipse下的Java反编译插件 查看源代码不再困难

Eclipse下的Java反编译插件:Eclipse Class Decompiler,整合了目前最好的2个Java反编译工具Jad和JD-Core,并且和Eclipse Class Viewer无缝集成,能够很方便的使用本插件查看类库源码,以及采用本插件进行Debug调试. 转载自:http://bbs.csdn.net/topics/390263414 Eclipse Class Decompiler插件: http://download.csdn.net/detail/ibm_hoojo/