ambari 2.6.2 安装 hdp 2.6.5.0 遇到的问题

1.hive-client 无法安装

一直报错(symlink target  already exists and it is not a symlink.),hive-client 已经存在且不是符号连接,查看确实如此

试了很多种办法,比如重新安装,比如手动删除,手动连接,都没有奏效

DO:

最后通过查看错误日志,拿到执行报错的脚本(ambari-python-wrap /usr/bin/hdp-select set hive-client 2.6.5.0-292),删除存在的目录后,再执行该脚本,最后重新在前台管理界面进行重试安装-----------成功。

2.无法查找到 accumulo_$ 包名,后续就无法安装,这种情况大多是本地源没有配置成功,或则有错误指向。

DO:

 a.配置本地源,包括ambari,hdp,hdp-util

b.修改 /etc/yum.repos.d 下的 ambari.repo 和 hdp.repo 为上面设置的本地源

c.执行 yum clean all ,yum makecache,yum repolist

在此之后再走离线安装的程序。

3.spark2 thrift server 无法启动,报错 hdp.version is not set while running Spark under HDP

DO:

在配置文件Advanced spark2-env 中的 content 中配置 export HDP_VERSION=2.6.5.0-292 重启即可解决。

4.livy for spark2 server 无法启动,报错,can not mkdir /livy2-recovery

DO:

手动创建该目录,重启即可解决。

原文地址:https://www.cnblogs.com/yako/p/9288618.html

时间: 2024-10-04 12:00:05

ambari 2.6.2 安装 hdp 2.6.5.0 遇到的问题的相关文章

ambari之hadoop的安装

前期环境准备: 三台机器:192.168.1.25(1-3):251-ambari_master:252-ambari_slare1:253-ambari_slare2 机器配置,系统环境 使用虚拟机,系统rhel6.6 ; centos6.5 所有机器都需要执行一下设置(我已经设置好了,可以看一下): 1.打开最大文件数设置 [[email protected]_slare2 ~]# ulimit -Hn10000 [[email protected]_slare2 ~]# ulimit -S

ambari本地源自动化安装hortonworks hadoop(转)

原文地址:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=26230811&id=4023821 环境配置 Hostname IP OS Ambari 172.16.235.164 Centos X64 base install Maste.hadoop 172.16.235.165 Centos X64 base install Datanode1.hadoop 172.16.235.166 Centos X64 base

原因是未找到“sgen.exe”,或未安装 .NET Framework SDK v2.0

visual studio编译出现错误:错误 2 任务失败,原因是未找到“sgen.exe”,或未安装 .NET Framework SDK v2.0.该任务正在注册表项 HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\.NETFramework 的 SDKInstallRootv2.0 值中指定的位置下的“bin”子目录中查找“sgen.exe”.您可以通过执行下列操作之一,来解决这一问题: 1.) 安装 .NET Framework SDK v2.0.2.) 将上

自动化安装zabbix脚本(3.0/3.2)

自动化安装zabbix脚本(3.0/3.2) 一.zabbix简介 zabbix是一个基于WEB界面的提供分布式系统监视以及网络监视功能的企业级的开源解决方案.zabbix能监视各种网络参数,保证服务器系统的安全运营;并提供灵活的通知机制以让系统管理员快速定位/解决存在的各种问题. 二.zabbix特点 1.企业级的.开源的.分布式 2.灵活的告警机制.存储数据提供杰出的报告及图形 3.通过内置的绘图方法实现监控数据实时绘图 4.允许灵活地自定义问题阀值 5.支持主动与被动方式(agent.sn

UEFI安装Kali Linux 1.1.0记录

现在使用Kali Linux 1.1.0, UEFI启动,使用Fcitx的拼音输入法,词库实在不爽,将就写一写. 本文地址: http://www.cnblogs.com/go2bed/p/4295466.html 硬件概要: ThinkPad, intel, 500G机械硬盘,Linux分区分别挂载: / /home swap 3个. _____________ 0x00 我首先尝试使用U盘和Universal USB Installer 制作启动U盘.只能在Legacy模式启动. 在“安装系

ubuntu14.04 64bit 安装 && 破解quartus13.0 记录

安装文件:Quartus-13.0.0.156-linux.iso             Quartus-13.0.0.156-devices-1.iso 1.挂载:sudo mount -o loop Quartus-13.0.0.156-linux.iso /media/mnt    //mnt 提前建立好 2.直接执行 sudo ./setup.sh 就可以安装 我的安装文件夹:/usr/local/altera/13.0/quartus 3. 1).quartus安装完毕后,直接执行执

Linux/RedHat 编译安装GNU gcc 4.9.0 (g++)

这里说的是编译安装,yum/apt-get 等安装方法比较简单,不阐述! 1.下载源码包:gcc.gnu.org 2.解压: tar -xjvf gcc-4.9.0.tar.bz2 3.下载编译所需的依赖包: 最简单的方法,直接执行: ./contrib/download_prerequisites 脚本自动下载依赖包 gmp, mpfr,mpc. 也可以手动下载然后移到/gcc-4.9.0目录下面自动一起安装,或者自行先编译安装 4.执行configure命令,产生makefile: mkdi

Lucene安装配置(4.6.0)

百度文库原始链接:http://wenku.baidu.com/link?url=WxkCi3zeXu8du3XGx9FxAeUxMiEx-e0EaKmoCKqa8_0Zy0INURfv8V5FePF5iSKWgi-VXgJwastrcg1AEH_bw14iCtMb4bhQpUzwiMCcjvy 6Lucene-4.6.0的安装与配置的详细过程 第一步:下载安装JDK 在安装lucene之前需要首先安装jdk,因为lucene是在jdk的环境下运行的.最好下载jdk1.7以上的版本.这里我用的是

通过tarball形式安装HBASE Cluster(CDH5.0.2)——配置分布式集群中的YARN ResourceManager 的HA

<?xml version="1.0"?> <!-- Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses