eclipse查看hadoop中文件出现乱码

出现这个问题, 我首先去找了一下几个问题:

1.文件是否是utf-8

2.上传到Linux中的hadoop, 在Linux下去查看是否乱码

3.上面都没有问题, 就去检查eclipse,将项目工程改成了utf-8, 发现不行

4.看了一下的介绍, 将eclipse的系统设置改成了uft-8, 就可以了

eclipse中UTF-8设置

1.windows->Preferences   打开"首选项"对话框;

2.然后,general->Workspace,右侧Text file encoding,选择Other,改变为UTF-8。

3.Web->打开,把CSS、HTML、JSP、JavaScript、 XML等设置为UTF-8。

或在这里更改,general->Content Types,右侧Context Types树,点开Text,选择Java Source File,在下面的Default encoding输入框中输入UTF-8,点Update,则设置Java文件编码为UTF-8。其他如果需要更改,方法一样。

4.java->Installed JREs.

移除原来Eclipse自带的Jdk6.0,从新配置Jdk 1.6.0_06(Add:在C盘,Programe里的Java文件下。C:\Program Files\Java)

另外,

myeclipse中UTF-8设置

同样,

1Window 选项下---preferences选项;
2打开preferences->General->workspace,设置UTF-8;
3同样是preferences->MyEclipse->Files and Editors ->CSS、HTML、JSP、JavaScript、XML等设置UTF-8。
4同样是preferences->java->Installed JREs:移除原来的MyEclipse自带的Jdk6.0,从新配置Jdk1.6.0_06(Add:在C盘,Programe里的Java文件下)。

修改原因:
如果要使插件开发应用能有更好的国际化支持,能够最大程度的支持中 文输出,则最好使 Java文件使用 UTF-8编码。然而,Eclipse工作空 间(workspace)的缺省字符编码是操作系统缺省的编码,简体中文操作系统 (Windows XP、Windows
2000简体中文)的缺省编码是GB18030,在此工作空间中建立的工程编码是GB18030,工程中建立的java文件也是GB18030。如果要使 新建立工程、java文件直接使UTF-8则需要做上面的工作,不容忽略。

时间: 2025-01-05 05:20:49

eclipse查看hadoop中文件出现乱码的相关文章

Hadoop大象之旅010-使用eclipse查看hadoop源码

Hadoop大象之旅010-使用eclipse查看hadoop源码 老帅 我这使用的是hadoop-1.1.2.tar.gz,这个文件可以在下面地址下载到: 官方地址:http://archive.apache.org/dist/hadoop/core/hadoop-1.1.2/ 1.将hadoop-1.1.2.tar.gz解压缩 文件夹结构如下所示: 2.在MyEclipse中新建一个JavaProject 工程名称为hadoop 3.复制源码到我们的工程中 复制hadoop-1.1.2源码文

LSOF查看linux中文件打开情况

前言 我们都知道,在linux下,“一切皆文件”,因此有时候查看文件的打开情况,就显得格外重要,而这里有一个命令能够在这件事上很好的帮助我们-它就是lsof. linux下有哪些文件 在介绍lsof命令之前,先简单说一下,linux主要有哪些文件: 普通文件 目录 符号链接 面向块的设备文件 面向字符的设备文件 管道和命名管道 套接字 以上各类文件类型不多做详细介绍. lsof命令实用用法介绍 lsof,是list open files的简称.它的参数很多,但是我们这里只介绍一些实用的用法(注意

Eclipse查看git中的历史,显示详细时间

clipse show date details in git history我的eclipse查看git history,显示为相对时间,并不是很方便,想要查看某个具体日期的版本代码,就需要设置为具体时间了.下面是解决方法:1.右键 --> team --> show in history --> 下拉的小三角 --> show --> Relative Dates取消Relative Dates的勾选. 2.Window --> Preferences -->

转载: 查看HADOOP中一个文件有多少块组成及所在机器ip

看文件信息 hadoop fsck /user/filename 更详细的 hadoop fsck /user/filename -files  -blocks -locations -racks -files  文件分块信息, -blocks    在带-files参数后才显示block信息 -locations   在带-blocks参数后才显示block块所在datanode的具体IP位置, -racks       在带-files参数后显示机架位置

Eclipse查看hadoop源代码出现Source not found,是因为没有添加.zip

在我们hadoop编程中,经常遇到像看看hadoop的某个类中函数的功能.但是我们会遇到一种情况就是Source not found. 遇到这个问题,该如何解决.因为我们已经引入了包,为什么会找不到.如果不了解怎么引入的可以参考:hadoop开发方式总结及操作指导http://www.aboutyun.com/thread-6950-1-1.html看到上面现象,是因为我们每天添加.zip.该如何添加zip包.那么我们从哪去找zip包. (1)解压hadoop-2.7.3-src.tar.gz得

(原)Eclipse的java中文件读写

1 在<uses-sdk…/>下面添加permission <uses-sdk android:minSdkVersion="16" android:targetSdkVersion="16" /> <uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" /> <uses-permission android:na

Hadoop中的控制脚本

1.提出问题 在上篇博文中,提到了为什么要配置ssh免密码登录,说是Hadoop控制脚本依赖SSH来执行针对整个集群的操作,那么Hadoop中控制脚本都是什么东西呢?具体是如何通过SSH来针对整个集群的操作?网上完全分布模式下Hadoop的搭建很多,可是看完后,真的了解吗?为什么要配置Hadoop下conf目录下的masters文件和slaves文件,masters文件里面主要记录的是什么东西,slaves文件中又记录的是什么东西,masters文件和slaves文件都有什么作用?好,我看到过一

linux中文件/目录普通权限

权限 文件属性的查看############# ls -l filename/ls -ld dictionary-|rw-r--r--.|1| root| root|   46 |Oct  1 05:03 |filename- ---------  -  ----  ----    --  ------------  -------- 1    2         3    4      5      6      7             81."-":文件类型 -    ##普通

修改jar包中文件

1.查看jar中文件 jar -tvf abc.jar[待查看的文件 2.解压jar中文件 jar -xvf abc.jar a/b/c[指定待解压的jar中目录,不指定默认解压整个jar包] 3.更新jar中文件 jar -uvf agc.jar a/b/c ·1 文件夹a与agc.jar在同级目录 ·2 不指定文件夹a/b/c,默认当前目录为待更新的目标目录 ·3 覆盖更新指定目录的文件,原jar中不涉及的文件不做修改,亦不删除 例如:更新多个目录文件,(m表示包含MANIFEST.MF文件