solr5.5.4 增量索引 自动同步mysql数据

前言:之前测试了solr好几个版本都没有成功,solr比较好下载的版本5.0,5.5,6.6。solr6.6结合tomcat8做自动同步mysql数据一直报错,然后果断测试5.5版本的,成功了。

环境:windows10, jdk1.8,tomcat8,solr5.5.4

实现功能:通过前端输入关键字查询,同时查询多表多字段。当数据库mysql添加或者更新数据的时候,数据自动更新到solr引擎中。

正文:

第一步:下载solr

1.solr5.5下载:http://apache.fayea.com/lucene/solr/,选择solr5.5.5版下载 ,我已经安装好了,目录如下

解压两个刚刚下载的两个新压缩文件。solrhome是我后来加上去的。

第二部:将solr中的文件复制到tomcat中

1.E:\solr\test\solr-5.5.4\server\solr-webapp\webapp,复制webapp文件夹到tomcat的webapps下面,并将webapp改名我solr。

2.在次目录E:\solr\test\apache-tomcat-8.5.20\webapps\solr\WEB-INF下面添加classes。然后复制E:\solr\test\solr-5.5.4\server\lib\ext次目录下面的所有jar包到E:\solr\test\apache-tomcat-8.5.20\webapps\solr\WEB-INF的lib下面,同时复制E:\solr\test\solr-5.5.4\server\resources目录下面的log4j.properties到E:\solr\test\apache-tomcat-8.5.20\webapps\solr\WEB-INF\classes文件下

第三步:复制文件E:\solr\test\solr-5.5.4\server\solr,放到E:\solr\test下面和tomcat在同一层,改名位solrhome

第四步:设置solrhomg的路径:修改目录E:\solr\test\apache-tomcat-8.5.20\webapps\solr\WEB-INF下的web.xml文件,之前下面这段代码是被注释了的。

摘抄别人的:http://blog.csdn.net/moxuelang/article/details/51417925

注:此处 ../../solr/ 为什么会使这个值呢,为什么要如此配置,这个是因为solr默认的env-entry-value 的起始位置是tomcat的bin文件夹下,因此../../solr/ 这个的意思就是,bin文件夹下的上一层目录,再上一层目录的solr文件夹下,也就是solr_server下的solr文件夹下,就是solr的solrhome的位置,网上其他人都将solrhome(此处的solr)文件夹直接放在tomcat的bin目录下,我觉得不是很好。此处这样配置的另一个好处就是,当我们部署应用程序时,只要将solr_server拷贝到目标服务器上,启动tomcat,即可,不需要再修改任何配置,按常规配置,指定到具体的盘符的话,从开发移植到部署服务器上去时,就需要修改solrhome的位置了。

第五步:添加core,也就是你数据索引到solr中的类似出库的东西

在solrhome下面添加一个文件夹core1,复制文件夹E:\solr\test\solr-5.5.4\server\solr\configsets\basic_configs\conf,放到刚刚添加的core1中,然后启动tomcat,访问http://localhost:8080/solr/admin.html#

点击core admin,点击add core:

时间: 2024-12-14 11:36:30

solr5.5.4 增量索引 自动同步mysql数据的相关文章

10.Solr4.10.3数据导入(DIH全量增量同步Mysql数据)

转载请出自出处:http://www.cnblogs.com/hd3013779515/ 1.创建MySQL数据 create database solr; use solr; DROP TABLE IF EXISTS student; CREATE TABLE student ( id char(10) NOT NULL, stu_name varchar(50) DEFAULT NULL, stu_sex int(1) DEFAULT NULL, stu_address varchar(20

solr4.2增量索引之同步(修改,删除,新增)--转载

solr4.2增量索引之同步(修改,删除,新增)--转载 原文地址:http://www.jiancool.com/article/12743229775/;jsessionid=14E9B3F1BB33399799884B5C8F15DDE1  solr增量索引配置 1.在进行增量索引前,首先要弄懂几个必要的属性,以及数据库建表事项,和dataimporter.properties                    data-config.xml里面的数据   <!--  transfor

logstash增量同步mysql数据到es

本篇本章地址:https://www.cnblogs.com/Thehorse/p/11601013.html 今天我们来讲一下logstash同步mysql数据到es 我认为呢,logstash是众多同步mysql数据到es的插件中,最稳定并且最容易配置的一个. input { stdin { } jdbc { type => "xxx" jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/yinhela

solr的DIH操作同步mysql数据

1.创建MySQL数据 CREATE TABLE `city` ( `id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT COMMENT '城市编号', `province_id` INT(10) UNSIGNED NOT NULL COMMENT '省份编号', `city_name` VARCHAR(25) NULL DEFAULT NULL COMMENT '城市名称', `description` VARCHAR(25) NULL DEFAULT N

logstash同步mysql数据到Elasticsearch

安装logstash查看我的另一篇文章  Docker 部署 logstash 同步数据我们首先需要安装好对应的插件,然后下载对应的数据库链接jar包,下面是具体的步骤 1.进入容器中 docker exec it logstash bash 2.进入到bin 目录下,我这里是/usr/share/logstash/bin,可以看到logstash-plugin文件,然后安装插件 logstash-plugin install logstash-input-jdbc 3.看到如下输出,则表示安装

sqoop同步mysql数据到hive中

一.sqoop 在同步mysql表结构到hive sqoop create-hive-table --connect jdbc:mysql://ip:3306/sampledata --table t1--username dev --password 1234 --hive-table t1; 执行到这一步就退出了,但是在hadoop的hdfs上的/hive/warehouse/的目录下是找不到t1表的目录, 但是正常执行完成是下面这样的: 错误就是hive的jar包有缺失 全部的jar包该是

【记录】ELK之logstash同步mysql数据到Elasticsearch ,配置文件详解

本文出处:https://my.oschina.net/xiaowangqiongyou/blog/1812708#comments 截取部分内容以便学习 input { jdbc { # mysql相关jdbc配置 jdbc_connection_string => "jdbc:mysql://10.112.76.30:3306/jack_test?useUnicode=true&characterEncoding=utf-8&useSSL=false" jdb

Canal——增量同步MySQL数据到ES

1.准备 1.1.组件 JDK:1.8版本及以上: ElasticSearch:6.x版本,目前貌似不支持7.x版本:     Canal.deployer:1.1.4 Canal.Adapter:1.1.4 1.1.配置 需要先开启MySQL的 binlog 写入功能,配置 binlog-format 为 ROW 模式 找到my.cnf文件,我的目录是/etc/my.cnf,添加以下配置: log-bin=mysql-bin # 开启 binlog binlog-format=ROW # 选择

django连接mysql自动同步生成数据表

python manage.py makemigrations python manage.py migrate 如果是 Django 不主动提示创建管理员(Django 1.9不提示)用下面的命令创建一个帐号 python manage.py createsuperuser 这样就可以进后台添加内容了