hadoop错误Cannot load libsnappy.so.1 (libsnappy.so.1 cannot open shared object file No such file or directory)!

报如下错误

解决方法:

1、下载libsnappy.so.1(https://yunpan.cn/cSHRHTBJGVVX6  访问密码 c992)

2、上传到linux系统

3、安装

  

4、安装完成后,再去检查,效果如下

    

如果,您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】。
如果,您希望更容易地发现我的新博客,不妨点击一下左下角的【关注我】。
如果,您对我的博客所讲述的内容有兴趣,请继续关注我的后续博客,我是【刘超★ljc】。

本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

时间: 2024-10-10 19:21:27

hadoop错误Cannot load libsnappy.so.1 (libsnappy.so.1 cannot open shared object file No such file or directory)!的相关文章

iptables报错:Couldn't load target `accept':/lib64/iptables/libipt_accept.so: cannot open shared object file: No such file or directory

语句:iptables -A INPUT -s 134.192.204.235 -p TCP --dport 11211 -j accept 报错:Couldn't load target `accept':/lib64/iptables/libipt_accept.so: cannot open shared object file: No such file or directory 原因:规则语句写错accept应大写ACCEPT 参考:http://www.cnblogs.com/iii

hadoop 错误处理机制

hadoop 错误处理机制 1.硬件故障 硬件故障是指jobtracker故障或TaskTracker 故障 jobtracker是单点,若发生故障,目前hadoop 还无法处理,唯有选择最牢靠的硬件作为jobtracker jobtracker通过心跳(周期1分钟) 信号来了解TaskTracker 是否发生故障或者负载过重 jobtracker 将从任务节点列表中移除发生故障的TaskTracker 如果故障节点在执行map任务并且尚未完成,jobtracker 会要求其他节点 重新执行 次

OGG登陆报cannot open shared object file错误处理

1.错误现象 Linux服务器上,新安装的goldengate(OGG),使用./ggsci登 陆控制台报出./ggsci: error while loading shared libraries: libnnz11.so: cannotopen shared object file: No such file or directory错误. 2.原因分析 因为运行OGG的用户的没有设置LD_LIBRARY_PATH环境变量,或设置不正确所致. 3.解决方法: 在.bash_profile中增

error opening trace file: No such file or directory (2)错误解决方法

在练习项目的时候报错    error opening trace file: No such file or directory (2)字面意思是找不到文件,实际上也就是找不到文件,查了其他人的解决方法后还是没解决.突然想到新版本的创建布局文件的时候都有两个一个是文件名命名的xml布局文件另一个是,如上图示,当不与java代码交互的时候布局文件写入fragment_main.xml显示没问题,当涉及到与java代码交互时必须放到activity_main.xml中,否则就会抱错,然后程序意外停

CentOS安装软件出现错误:bash: /usr/local/bin/rar: /lib/ld-linux.so.2: bad ELF interpreter: No such file or directory

CentOS安装软件出现错误: bash: /usr/local/bin/rar: /lib/ld-linux.so.2: bad ELF interpreter: No such file or directorygoogle了一把才发现是64位系统中安装了32位程序解决方法:yum install glibc.i686 重新安装以后还有如下类系错误 再继续安装包 error while loading shared libraries: libstdc++.so.6: cannot open

CentOS-6.3 编译erlang-otp 17.0 报relocation R_X86_64_32 against `OPENSSL_ia32cap_P' can not be used when making a shared object; recompile with -fPIC错误

编译erlang otp 17.0 一直提示:/usr/bin/ld: /usr/local/ssl/lib/libcrypto.a(cryptlib.o): relocation R_X86_64_32 against `OPENSSL_ia32cap_P' can not be used when making a shared object; recompile with -fPIC 参考了一下这个:http://blog.csdn.net/zhongruixian/article/det

关于 unable to load shared object 'C:\Program Files\R\R-3.0.3\library\stats\libs\i386\stats.dll'

这个问题花了我3个小时差文档解决.最终一位外国朋友解答了我的问题:http://rdotnet.codeplex.com/workitem/117 其实这个问题很简单就是,在R目录下的:C:\Program Files\R\R-3.0.3\library\stats\libs\i386这个目录下,拷贝一份:这个目录下的文件:C:\Program Files\R\R-3.0.3\bin\i386.然后就ok了. 看了这份回答,估计你都得喊哥了. 关于 unable to load shared o

解决软件启动报error while loading shared libraries: libgd.so.2: cannot open shared object错误

解决软件启动报error while loading shared libraries: libgd.so.2: cannot open shared object错误 今天安装启动nginx的时候报这个错误:error while loading shared libraries: libgd.so.2: cannot open shared object,网上查了相关资料,解决了,在此记录下,也让后面遇到这个问题的朋友能快速解决. 先说解决办法,帮助着急解决问题的朋友,这个是因为缺失gd库,

hadoop错误INFO util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

报如下错误: 解决方法: 1.增加调试信息 在HADOOP_HOME/etc/hadoop/hadoop-env.sh文件中添加如下信息 2.再执行一次操作,看看报什么错误 上面信息显示,需要2.14的glibc库 解决方法: 1.查看系统的libc版本(ll /lib64/libc.so.6) 显示版本为2.12 第一种解决方式,使用2.12版本的glibc,重新编译hadoop 第二种解决方式,给系统安装2.14版本的glibc 1.下载glibc(https://yunpan.cn/cSm