springboot整合solr

一、本文将solr安装在linux上。首先先安装好jdk和tomcat。
配置环境:jdk8,tomcat8.5,solr7.2.1.。

二、复制Solr文件夹中的一些文件到apache-tomcat下:
1)将 solr 压缩包中 solr\server\solr-webapp\文件夹下有个webapp文件夹,将之复制到tomcat\webapps\目录下,文件夹名改成solr(任意) ;


cp -R /usr/local/tomcat/solr-7.2.1/server/solr-webapp/webapp /usr/local/tomcat/apache-tomcat-8.5.29/webapps/

2)将 solr 压缩包中 solr\server\lib\ext 中的 jar 全部复制到 Tomcat\ webapps\solr\WEB-INF\lib 目录中;


cp -R /usr/local/tomcat/solr-7.2.1/server/solr-webapp/webapp /usr/local/tomcat/apache-tomcat-8.5.29/webapps/

3)将solr压缩包中solr/server/lib/metrics* 开头的jar全部复制到 Tomcat\ webapps\solr\WEB-INF\lib 目录中;


cp -R /usr/local/tomcat/solr-7.2.1/server/lib/metrics*.* /usr/local/tomcat/apache-tomcat-8.5.29/webapps/solr/WEB-INF/lib/

4)将solr压缩包中solr/server/lib/solr-dataimporthandler-* 开头的jar全部复制到 Tomcat\ webapps\solr\WEB-INF\lib 目录中;


cp -R /usr/local/tomcat/solr-7.2.1/server/lib/solr-dataimporthandler-* /usr/local/tomcat/apache-tomcat-8.5.29/webapps/solr/WEB-INF/lib/

5)在Tomcat\ webapps\solr\WEB-INF\下建立classes目录,并将solr/server/resources/log4j.properties文件复制其中;


cp -R /usr/local/tomcat/solr-7.2.1/server/resources/log4j.properties  /usr/local/tomcat/apache-tomcat-8.5.29/webapps/solr/WEB-INF/classes/

6)在tomcat目录下建立solrhome目录(也可以放在其它目录中)

mkdir solrhome

7)复制solr/server/solr/* 所有文件到tomcat/solrhome目录,用到创建solr的core时使用。


cp -R /usr/local/tomcat/solr-7.2.1/server/solr/* /usr/local/tomcat/apache-tomcat-8.5.29/solrhome/

三、安装完成之后启动tomcat,即可运行sorl。输入路径地址:

http://192.168.1.130:8089/solr/index.html
ip可根据实际情况填写。

四、配置solr:

编辑web.xml文件:

[[email protected] down]# vi /down/apache-tomcat-8.5.12/webapps/solr/WEB-INF/web.xml

1)配置solr下core路径,找如下配置内容(初始状态下该内容是被注释掉的):


<env-entry>
       <env-entry-name>solr/home</env-entry-name>
       <env-entry-value>/down/apache-tomcat-8.5.12/solrhome</env-entry-value> //将路径指向我们创建的solrhome目录。
       <env-entry-type>java.lang.String</env-entry-type>
    </env-entry>

2)配置访问权限:找到如下内容,并注释掉:

<!--
<security-constraint>
<web-resource-collection>
<web-resource-name>Disable TRACE</web-resource-name>
<url-pattern>/</url-pattern>
<http-method>TRACE</http-method>
</web-resource-collection>
<auth-constraint/>
</security-constraint>
<security-constraint>
<web-resource-collection>
<web-resource-name>Enable everything but TRACE</web-resource-name>
<url-pattern>/</url-pattern>
<http-method-omission>TRACE</http-method-omission>
</web-resource-collection>
</security-constraint>
-->

至此solr的配置工作完成.

五、创建core:
1、首先在solrhome中创建mycore目录;
2、复制solr-6.5.0\example\example-DIH\solr\solr下的所有文件到/down/apache-tomcat-8.5.12/solrhome/mycore目录下:
3、重新启动tomcat;
4、此时在浏览器输入http://localhost:8080/solr/index.html即可出现Solr的管理界面,即可看到我们刚才的mycore。

六、配置IKAnalyzer的中文分词:
1、下载IKAnalyzer,解压后会有五个文件

ext.dic IKAnalyzer.cfg.xml solr-analyzer-ik-5.1.0.jar ik-analyzer-solr5-5.x.jar stopword.dic
1
ext.dic为扩展字典,stopword.dic为停止词字典,IKAnalyzer.cfg.xml为配置文件,solr-analyzer-ik-5.1.0.jar ik-analyzer-solr5-5.x.jar为分词jar包。

2、将文件夹下的IKAnalyzer.cfg.xml , ext.dic和stopword.dic 三个文件 复制到/webapps/solr/WEB-INF/classes 目录下,并修改IKAnalyzer.cfg.xml

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典 -->
        <entry key="ext_dict">ext.dic;</entry>

        <!--用户可以在这里配置自己的扩展停止词字典-->
        <entry key="ext_stopwords">stopword.dic;</entry>

</properties>

3、在ext.dic 里增加自己的扩展词典,例如,唯品会 聚美优品

4、复制solr-analyzer-ik-5.1.0.jar ik-analyzer-solr5-5.x.jar到/down/apache-tomcat-8.5.12/webapps/solr/WEB-INF/lib/目录下。

5、在 solrhome\mycore\conf\managed-schema 文件前增加如下配置

<!-- 我添加的IK分词 -->
<fieldType name="text_ik" class="solr.TextField">
<analyzer type="index">
<tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="true"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="true"/>
</analyzer>
</fieldType>

注意: 记得将stopword.dic,ext.dic的编码方式为UTF-8 无BOM的编码方式。

七、solr与mysql集成索引:

首先在 solrconfig.xml 的 《requestHandler name=”/select” class=”solr.SearchHandler”> 之上添加

<requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler">
  <lst name="defaults">
  <str name="config">data-config.xml</str>
  </lst>
</requestHandler>

然后在conf下新建data-config.xml文件。里面内容如下:


<dataConfig>
    <dataSource name="source1" type="JdbcDataSource" driver="com.mysql.jdbc.Driver" url="jdbc:mysql://数据库ip:3306/***" user="root" password="123456" />
    <document>
        <entity dataSource="source1" name="Goods" pk="id" query="select goods_name,seo_description,seo_keywords,goods_price,goods_main_photo_id from goods"
            deltaImportQuery="select * from user where id=‘${dih.delta.id}‘"
            deltaQuery="select id from user where updateTime> ‘${dataimporter.last_index_time}‘">
            <field column="goods_name" name="goodsName" />
            <field column="seo_description" name="seoDescription" />
            <field column="seo_keywords" name="seoKeywords" />
            <field column="goods_price" name="goodsPrice" />
            <field column="goods_main_photo_id" name="goodsMainPhotoId" />
            <field column="update_time" name="updateTime" />
        </entity>
    </document>
</dataConfig>

dataSource是数据库数据源。Entity就是一张表对应的实体,pk是主键,query是查询语句。Field对应一个字段,column是数据库里的column名,后面的name属性对应着Solr的Filed的名字。其中solrdata是数据库名,goods是表名。
其中deltaQuery是增量索引,原理是从数据库中根据deltaQuery指定的SQL语句查询出所有需要增量导入的数据的ID号。然后根据deltaImportQuery指定的SQL语句返回所有这些ID的数据,即为这次增量导入所要处理的数据。核心思想是:通过内置变量“dih.delta.id”和“dih.delta.id”和“{dataimporter.last_index_time}”来记录本次要索引的id和最近一次索引的时间。

然后把mysql所需的jar包和solr-6.2.0\dist下的solr-dataimporthandler-6.2.0.jar和solr-dataimporthandler-extras-6.2.0.jar都复制到项目WEB-INF\lib下。
启动Tomcat,输入http://localhost:8080/solr/index.html按如下选择,

八、查询参数说明:
1、常用

q - 查询字符串,这个是必须的。如果查询所有: ,根据指定字段查询(Name:张三 AND Address:北京)

fq - (filter query)过虑查询,作用:在q查询符合结果中同时是fq查询符合的,例如:q=Name:张三&fq=createDate:[2014-06-18 TO 2015-12-18],找关键字”张三”,并且CreateDate是查询2014-06-18到2015-12-18之间的数据

fl - 指定返回那些字段内容,用逗号或空格分隔多个。

start - 返回第一条记录在完整找到结果中的偏移位置,0开始,一般分页用。

rows - 指定返回结果最多有多少条记录,配合start来实现分页。

sort - 排序,格式:sort=《field name>+《desc|asc>[,《field name>+《desc|asc>]… 。示例:(score desc, price asc)表示先 “score” 降序, 再 “price” 升序,默认是相关性降序。

wt - (writer type)指定输出格式,可以有 xml, json, PHP, phps。

fl表示索引显示那些field( *表示所有field,如果想查询指定字段用逗号或空格隔开(如:Name,SKU,ShortDescription或Name SKU ShortDescription【注:字段是严格区分大小写的】))

q.op 表示q 中 查询语句的 各条件的逻辑操作 AND(与) OR(或)

hl 是否高亮 ,如hl=true

hl.fl 高亮field ,hl.fl=Name,SKU

hl.snippets :默认是1,这里设置为3个片段

hl.simple.pre 高亮前面的格式

hl.simple.post 高亮后面的格式

facet 是否启动统计

facet.field 统计field

2、 Solr运算符

“:” 指定字段查指定值,如返回所有值:

“?” 表示单个任意字符的通配

“” 表示多个任意字符的通配(不能在检索的项开始使用或者?符号)

“~” 表示模糊检索,如检索拼写类似于”roam”的项这样写:roam~将找到形如foam和roams的单词;roam~0.8,检索返回相似度在0.8以上的记录。

邻近检索,如检索相隔10个单词的”apache”和”jakarta”,”jakarta apache”~10

“^” 控制相关度检索,如检索jakarta apache,同时希望去让”jakarta”的相关度更加好,那么在其后加上”^”符号和增量值,即jakarta^4 apache

布尔操作符AND、||

布尔操作符OR、&&

布尔操作符NOT、!、- (排除操作符不能单独与项使用构成查询)

“+” 存在操作符,要求符号”+”后的项必须在文档相应的域中存在
( ) 用于构成子查询
[] 包含范围检索,如检索某时间段记录,包含头尾,date:[200707 TO 200710]
{} 不包含范围检索,如检索某时间段记录,不包含头尾
date:{200707 TO 200710}
/ 转义操作符,特殊字符包括+ - && || ! ( ) { } [ ] ^ ” ~ * ? : /

注:①“+”和”-“表示对单个查询单元的修饰,and 、or 、 not 是对两个查询单元是否做交集或者做差集还是取反的操作的符号

   比如:AB:china +AB:america,表示的是AB:china忽略不计可有可无,必须满足第二个条件才是对的,而不是你所认为的必须满足这两个搜索条件

   如果输入:AB:china AND AB:america,解析出来的结果是两个条件同时满足,即+AB:china AND +AB:america或+AB:china +AB:america

  总而言之,查询语法: 修饰符 字段名:查询关键词 AND/OR/NOT 修饰符 字段名:查询关键词

3、 Solr查询语法

1.最普通的查询,比如查询姓张的人( Name:张),如果是精准性搜索相当于SQL SERVER中的LIKE搜索这需要带引号(”“),比如查询含有北京的(Address:”北京”)

2.多条件查询,注:如果是针对单个字段进行搜索的可以用(Name:搜索条件加运算符(OR、AND、NOT) Name:搜索条件),比如模糊查询( Name:张 OR Name:李)单个字段多条件搜索不建议这样写,一般建议是在单个字段里进行条件筛选,如(Name:张 OR 李),多个字段查询(Name:张 + Address:北京 )

3.排序,比如根据姓名升序(Name asc),降序(Name desc)

4.查询结果匹配

一般情况下solr默认是进行拆分匹配查询的,如:“苏小小”拆成“苏”,“小”,“小”等。但是如果要进行完全匹配 “苏小小” 可以将关键词用双引号括起来如下:

例如 :

http://localhost:8081/solr/select/?q=name:”苏小小”&version=2.2&start=0&rows=10&indent=on&sort=cDate desc&hl=true&hl.fl=content

注意:如果在搜索的目标上有一句话中包含这个关键字,那么这段话也会被搜索到,如:“很久很久以前苏小小就是很出名了”。千万不要以为只是关键字的内容才能搜索到。

九、项目代码:
application.yml 中加上如上配置:


#配置sorl
spring:
  data:
    solr:
      host: http://192.168.1.130:8089/solr/mycore
package com.tj.dr.service.impl;

...
import java.util.List;

@Service
public class SearchServiceImpl implements SearchService {

    @Autowired
    private SearchMapper searchMapper;

    @Autowired
    private SolrClient solrClient;

    @Reference(version = "1.0")
    private UserInterfaces userInterfaces;

    @Reference(version = "1.0")
    private ConfigInterface configInterface;

    /**
     * 更新索引库所有索引
     */
    @Override
    public void importAllIndex() {
        try {
            List<SearchGoodsDto> searchGoodsDtos = searchMapper.selectByGoodsList();

            List<SolrInputDocument> documents = new ArrayList<>();
            for (SearchGoodsDto goods : searchGoodsDtos) {
                SolrInputDocument document = new SolrInputDocument();
                document.addField("id", goods.getId());
                document.addField("goodsName", goods.getGoodsName());
                String price = goods.getGoodsPrice().toString();
                document.addField("goodsPrice", price);
                String url = null;
                if (!Common.isEmpty(goods.getGoodsMainPhotoId())) {
                    RedpigmallAccessory pic = userInterfaces.getRedpigmallAccessoryById(Long.valueOf(goods.getGoodsMainPhotoId()));
                    url = configInterface.getSysConfig().getDetail().getImagewebserver() + pic.getPath() + "/"
                            + pic.getName();
                }
                document.addField("goodsMainPhotoId", url);
                documents.add(document);
            }

            solrClient.add(documents);

            solrClient.commit();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

    /**
     * 分页查询商品
     *
     * @param name
     * @param currentPage
     * @param pageSize
     * @return
     */
    @Override
    public PageUtils query(String name, int currentPage, int pageSize) throws IOException, SolrServerException {

        SolrQuery params = new SolrQuery();
        //查询条件
        params.set("q", "goodsName:" + name);
        //这里的分页和mysql分页一样
        params.set("start", (currentPage - 1) * pageSize);
        params.set("rows", pageSize);
        params.set("wt", "json");
        QueryResponse query = solrClient.query(params);
        //查询结果
        SolrDocumentList results = query.getResults();

        List<GoodsClassNameVo> list = new ArrayList<>();
        for (SolrDocument result : results) {
            GoodsClassNameVo searchGoodsDto = new GoodsClassNameVo();
            searchGoodsDto.setId(Long.valueOf(result.get("id").toString()));
            searchGoodsDto.setGoodsName(String.valueOf(result.get("goodsName")));
            BigDecimal goodsPrice = new BigDecimal(result.get("goodsPrice").toString());
            searchGoodsDto.setGoodsPrice(goodsPrice);
            if (null!=result.get("goodsMainPhotoId")){
                searchGoodsDto.setIcon(result.get("goodsMainPhotoId").toString());
            }

            list.add(searchGoodsDto);
        }
        //搜索总数
        long found = results.getNumFound();
        //搜索开始
        long start = results.getStart();

        PageUtils<GoodsClassNameVo> pageUtils = new PageUtils<>();
        pageUtils.setPageNum(currentPage);
        pageUtils.setPageSize(pageSize);
        pageUtils.setTotalNum(Integer.valueOf(String.valueOf(found)));
        pageUtils.setPageCount(Integer.valueOf(String.valueOf(found / pageSize == 0 ? found / pageSize : found / pageSize + 1)));
        pageUtils.setIsMore(found - start > pageSize ? 1 : 0);
        pageUtils.setItems(list);

        return pageUtils;
    }

    /**
     * @param
     * @author: ZhongQiuwu
     * Description:添加单个商品索引
     * @Date: 13:54 2018/3/31
     */
    @Override
    public void addGoodsIndex(SearchGoodsDto searchGoodsDto) throws IOException, SolrServerException {
        RedpigmallAccessory pic = userInterfaces.getRedpigmallAccessoryById(Long.valueOf(searchGoodsDto.getGoodsMainPhotoId()));
        String url = null;
        if (pic != null) {
            url = configInterface.getSysConfig().getDetail().getImagewebserver() + pic.getPath() + "/"
                    + pic.getName();
        }
        SolrInputDocument document = new SolrInputDocument();
        document.addField("id", searchGoodsDto.getId());
        document.addField("goodsName", searchGoodsDto.getGoodsName());
        String price = searchGoodsDto.getGoodsPrice().toString();
        document.addField("goodsPrice", price);
        document.addField("goodsMainPhotoId", url);
        solrClient.add(document);
        solrClient.commit();
    }

    /**
     * @param
     * @param ids
     * @author: ZhongQiuwu
     * Description: 根据id批量删除
     * @Date: 13:59 2018/3/31
     */
    @Override
    public void deleteGoodsIndex(String[] ids) throws IOException, SolrServerException {
        List list = new ArrayList<>();
        for (String id : ids) {
            list.add(id);
        }
        solrClient.deleteById(list);
        solrClient.commit();
    }
}

原文地址:http://blog.51cto.com/13981400/2310391

时间: 2024-08-29 13:19:05

springboot整合solr的相关文章

SpringBoot 2.SpringBoot整合Mybatis

一.创建Springboot的配置文件:application.properties SpringApplication 会从 application.properties 文件中加载配置信息,下面是添加Spring配置信息的文件目录顺序: 当前目录下的/config子目录中 当前目录中 一个 classpath 包下的 /config 目录中 classpath 根目录中 大家根据自己习惯来即可. /application.properties 文件配置如下: spring.datasourc

springboot学习笔记-6 springboot整合RabbitMQ

一 RabbitMQ的介绍 RabbitMQ是消息中间件的一种,消息中间件即分布式系统中完成消息的发送和接收的基础软件.这些软件有很多,包括ActiveMQ(apache公司的),RocketMQ(阿里巴巴公司的,现已经转让给apache). 消息中间件的工作过程可以用生产者消费者模型来表示.即,生产者不断的向消息队列发送信息,而消费者从消息队列中消费信息.具体过程如下: 从上图可看出,对于消息队列来说,生产者,消息队列,消费者是最重要的三个概念,生产者发消息到消息队列中去,消费者监听指定的消息

SpringBoot整合Quartz定时任务

记录一个SpringBoot 整合 Quartz 的Demo实例 POM.XML文件 <!-- 定时器任务 quartz需要导入的坐标 --> <dependency> <groupId>org.quartz-scheduler</groupId> <artifactId>quartz</artifactId> <version>1.8.5</version> </dependency> 类似于控制

springboot系列-springboot整合RabbitMQ

一 RabbitMQ的介绍 RabbitMQ是消息中间件的一种,消息中间件即分布式系统中完成消息的发送和接收的基础软件.这些软件有很多,包括ActiveMQ(apache公司的),RocketMQ(阿里巴巴公司的,现已经转让给apache). 消息中间件的工作过程可以用生产者消费者模型来表示.即,生产者不断的向消息队列发送信息,而消费者从消息队列中消费信息.具体过程如下: 从上图可看出,对于消息队列来说,生产者,消息队列,消费者是最重要的三个概念,生产者发消息到消息队列中去,消费者监听指定的消息

springboot整合mybatis,freemarker

springboot 整合mybaits,,freemarker pom.xml文件 <?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation=&

springboot整合mybatis(SSM开发环境搭建)

0.项目结构: 1.application.properties中配置整合mybatis的配置文件.mybatis扫描别名的基本包与数据源 server.port=80 logging.level.org.springframework=DEBUG #springboot mybatis #jiazai mybatis peizhiwenjian mybatis.mapper-locations = classpath:mapper/*Mapper.xml mybatis.config-loca

springboot 整合jdbcTemplate

springboot 整合jdbcTemplate 〇.搭建springboot环境(包括数据库的依赖) 一.添加依赖 如果导入了jpa的依赖,就不用导入jdbctemplete的依赖了jpa的依赖: <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-jdbc</artifactId> </dependency&g

SpringBoot系列十一:SpringBoot整合Restful架构(使用 RestTemplate 模版实现 Rest 服务调用、Swagger 集成、动态修改日志级别)

1.概念:SpringBoot整合Restful架构 2.背景 Spring 与 Restful 整合才是微架构的核心,虽然在整个 SpringBoot(SpringCloud)之中提供有大量的服务方便整合,但是这些 整合都不如 Rest 重要,因为 Rest 是整个在微架构之中进行通讯的基础模式.那么对于 Rest 首先必须对其有一个最为核心的解释: 利用 JSON 实现数据的交互处理.而且 Spring 里面提供有一个非常强大的 RestTemplate 操作模版,利用此模版可以非常轻松的实

SpringBoot系列十二:SpringBoot整合 Shiro

1.概念:SpringBoot 整合 Shiro 2.具体内容 Shiro 是现在最为流行的权限认证开发框架,与它起名的只有最初的 SpringSecurity(这个开发框架非常不好用,但是千万不要 以为 SpringSecurity 没有用处,它在 SpringCloud 阶段将发挥重大的作用).但是现在如果要想整合 Shiro 开发框架有一点很遗憾, SpringBoot 没有直接的配置支持,它不像整合所谓的 Kafka.Redis.DataSource,也就是说如果要想整合 Shiro 开