centos6.7下安装mvn 、安装elasticsearch下ik分词

先说一下安装mvn步骤,如果已安装可以忽略;

在tmp目录下

1.建立mvn目录

mkdir mvn

cd /tmp/mvn

2.下载

wget http://apache.fayea.com/maven/maven-3/3.3.9/binaries/apache-maven-3.3.9-bin.tar.gz

3.解压

tar –xvf apache-maven-3.3.9-bin.tar.gz

4.移动到统一目录下

mv apache-maven-3.3.9 /usr/local

5.设置环境变量

MAVEN_HOME=/usr/local/apache-maven-3.3.9

export MAVEN_HOME

export PATH=${PATH}:${MAVEN_HOME}/bin

source /etc/profile

6.检查mvn是否安装成功

mvn –v

 

上面的配置不是永久的,如果要永久生效还需要进入目录配置文件:

vim /etc/profile

在行末尾添加:

export MAVEN_HOME=/usr/local/apache-maven-3.3.9
export PATH=$MAVEN_HOME/bin:$PATH:

export ES_HOME=/usr/share/elasticsearch
export PATH=$ES_HOME/bin:$PATH:
export ES_HEAP_MEM=2g

执行source /ect/profile 生效;

 

接下来进入按照IK

1.在/tmp/下建立 ik目录,并下载文件

cd /tmp/ik

git clone https://github.com/medcl/elasticsearch-analysis-ik
cd elasticsearch-analysis-ik
mvn clean
mvn compile
mvn package

copy & unzip file #{project_path}/elasticsearch-analysis-ik/target/releases/elasticsearch-analysis-ik-*.zip to your elasticsearch‘s folder: plugins/ik

 

 

 

修改Linux环境变量

1、控制台中设置,不赞成这种方式,因为他只对当前的shell 起作用,换一个shell设置就无效了:

$PATH="$PATH":/NEW_PATH  (关闭shell Path会还原为原来的path)

2、修改 /etc/profile 文件,如果你的计算机仅仅作为开发使用时推存使用这种方法,因为所有用户的shell都有权使用这个环境变量,可能会给系统带来安全性问题。这里是针对所有的用户的,所有的shell

在/etc/profile的最下面添加:  export  PATH="$PATH:/NEW_PATH"

3、修改bashrc文件,这种方法更为安全,它可以把使用这些环境变量的权限控制到用户级别,这里是针对某一特定的用户,如果你需要给某个用户权限使用这些环境变量,你只需要修改其个人用户主目录下的 .bashrc文件就可以了。

在下面添加:

Export  PATH="$PATH:/NEW_PATH"

时间: 2024-10-27 10:01:22

centos6.7下安装mvn 、安装elasticsearch下ik分词的相关文章

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例二.

为了更好的排版, 所以将IK分词器的安装重启了一篇博文,  大家可以接上solr的安装一同查看.[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一: http://www.cnblogs.com/wang-meng/p/5814798.html 8, 打开浏览器查看solr可视化界面 到了这里solr就配置好了, 可是我们的IK 分词器还没有配置呢, 如果不配IK分词器的话 它是怎样分词的呢? 我们就来先看一下:  每个字都分成了一个词, 这当然不是我们想要的结果

ElasticSearch的ik分词插件开发

摘要 本文主要介绍如何开发ElasticSearch的ik分词插件.很多时候,网上开源的分词插件不能满足业务需求,只能自己定义开发一套ik分词,let's go! ik插件,说白了,就是通过封装ik分词器,与ElasticSearch对接,让ElasticSearch能够驱动该分词器.那么,具体怎么与ElasticSearch对接呢?从下往上走,总共3步: 一.封装IK分析器 与ElasticSearch集成,分词器的配置均从ElasticSearch的配置文件读取,因此,需要重载IKAnaly

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一.

在这里一下讲解着三个的安装和配置, 是因为solr需要使用tomcat和IK分词器, 这里会通过图文教程的形式来详解它们的安装和使用.注: 本文属于原创文章, 如若转载,请注明出处, 谢谢.关于设置IK分词器的文章 IK分词器: http://www.cnblogs.com/wang-meng/p/5814798.html 1, 解压tar文件首先我们在根目录下建立一个solr目录(使用命令: mkdir /solr):  然后查看目录是否生成成功:  解压solr/tomcat/IK 到sol

ElasticSearch、IK分词器、Head Master安装-----Windows

ElasticSearch安装运行前提条件:配置好Jdk Head-Master运行前提条件:node 一.下载 地址:https://www.elastic.co/cn/downloads/elasticsearch 历史版本:找到下面这句话 然后双击 Not the version you're looking for? View past releases. 二.IK分词器下载 地址:https://github.com/medcl/elasticsearch-analysis-ik/re

Elasticsearch 集成IK分词器

我个人最喜欢使用IK分词,确实很方便,并且更新也快,这里做个简单介绍吧 分词插件IK 插件安装 1. 下载https://github.com/medcl/elasticsearch-analysis-ik 2. 解压进入目录执行"mvn clean package",生成target目录. 3. 解压后将config/ik目录复制到你的elasticsearch主目录的config目录下 4. 编辑config/elasticsearch.yml,在文件末尾添加下面内容(不能有tab

ElasticSearch 用ik分词器建立索引(java API)

ElasticSearch是一个基于Lucene的搜索服务器.它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口.Elasticsearch是用Java开发的,作为当前流行的企业级搜索引擎,用于云计算中,能够达到实时搜索,并且具有稳定,可靠,快速安装,使用方便等多种优点,得到大多数企业的青睐. ElasicSearch可以通过终端建立索引,但是本人在做项目的时候用终端建立的索引,然后使用Java API进行数据的插入,始终得不到分词,最终的解决办法就是通过Java API

elasticsearch 拼音+ik分词,spring data elasticsearch 拼音分词

elasticsearch 自定义分词器 安装拼音分词器.ik分词器 拼音分词器: https://github.com/medcl/elasticsearch-analysis-pinyin/releases ik分词器:https://github.com/medcl/elasticsearch-analysis-ik/releases 下载源码需要使用maven打包 下载构建好的压缩包解压后放直接在elasticsearch安装目录下 plugins文件夹下,可以重命名 1.在es中设置分

配置elasticsearch 以及ik分词

https://github.com/medcl/elasticsearch-analysis-ikhttps://www.elastic.co/downloads/past-releases/elasticsearch-2-3-2es:2.3.2ik:1.9.2一安装es:wget 'https://download.elastic.co/elasticsearch/release/org/elasticsearch/distribution/tar/elasticsearch/2.3.2/e

Laravel个人博客集成Elasticsearch和ik分词

在之前的博客中,写了一篇用laravel5.5和vue写的个人博客.GitHub地址为:https://github.com/Johnson19900110/phpJourney.最近有空,就想着把Elasticsearch集成了进来. 因为博主比较懒,在博客园写博客,所以个人博客就没有同步了,因此就用php的一个爬虫库 fabpot/goutte 把自己博客园文章爬到了自己博客上. 代码如下: <?php namespace App\Libraries; use App\Post; use G

Elasticsearch实践(四):IK分词

环境:Elasticsearch 6.2.4 + Kibana 6.2.4 + ik 6.2.4 Elasticsearch默认也能对中文进行分词. 我们先来看看自带的中文分词效果: curl -XGET "http://localhost:9200/_analyze" -H 'Content-Type: application/json' -d '{"analyzer": "default","text": "今天