系列5-多入单出的一层神经网络能做什么

全套教程请点击:微软 AI 开发教程

知识点

  • 多元线性回归
  • 输入层的矩阵运算设计
  • 样本数据归一化

提出问题

假设有如下这样一个问题:有1000个样本,每个样本有三个特征值,一个标签值。想让你预测一下给定任意三个特征值组合,其y值是多少?

样本序号 1 2 3 4 ... 1000
样本特征值1 1 4 2 4 ... 2
样本特征值2 3 2 6 3 ... 3
样本特征值3 96 100 54 72 ... 69
样本标签值y 434 500 321 482 ... 410

这就是典型的多元线性回归。函数模型如下:

\[y=a_0+a_1x_1+a_2x_2+\dots+a_kx_k\]

为了方便大家理解,咱们具体化一下上面的公式,按照本系列文章的符号约定就是:

\[
Z = w_1x_1+w_2x_2+w_3x_3+b = WX + B
\]

定义神经网络结构

我们定义一个一层的神经网络,输入层为3或者更多,反正大于2了就没区别。这个一层的神经网络没有中间层,只有输出层,而且只有一个神经元,并且神经元有一个线性输出,不经过激活函数处理。亦即在下图中,经过\(\Sigma\)求和得到Z值之后,直接把Z值输出。

这样的一个神经网络能做什么事情呢?

输入层

假设一共有m个样本,每个样本n个特征值,X就是一个\(n \times m\)的矩阵,模样是这样紫的(n=3,m=1000,亦即3行1000列):

\[
X =
\begin{pmatrix}
x1_1 & x2_1 & \dots & xm_1 \\x1_2 & x2_2 & \dots & xm_2 \\x1_3 & x2_3 & \dots & xm_3
\end{pmatrix} =
\begin{pmatrix}
3 & 2 & \dots & 3 \\1 & 4 & \dots & 2 \\96 & 100 & \dots & 54
\end{pmatrix}
\]

\[
Y =
\begin{pmatrix}
y1 & y2 & \dots & ym \\end{pmatrix}=
\begin{pmatrix}
434 & 500 & \dots & 410 \\end{pmatrix}
\]

单独看一个样本是这样的:

\[
x1 =
\begin{pmatrix}
x1_1 \\x1_2 \\x1_3
\end{pmatrix} =
\begin{pmatrix}
3 \\1 \\96
\end{pmatrix}
\]

\[
y1 = \begin{pmatrix} 434 \end{pmatrix}
\]

\(x1\)表示第一个样本,\(x1_1\)表示第一个样本的一个特征值。

权重W和B

有人问了,为何不把这个表格转一下,变成横向是样本特征值,纵向是样本数量?那样好像更符合思维习惯?

确实是!但是在实际的矩阵运算时,由于是\(Z=W*X+B\),W在前面,X在后面,所以必须是这个样子的:

\[
\begin{pmatrix}
w1 & w2 & w3
\end{pmatrix}
\times
\begin{pmatrix}
x1_1 \\x1_2 \\x1_3
\end{pmatrix}+B=
w1*x1_1+w2*x1_2+w3*x1_3+B
\]

假设每个样本X有n个特征向量,上式中的W就是一个\(1 \times n\)行向量,让每个w都对应一个x:
\[
\begin{pmatrix}w_1 & w_2 \dots w_n\end{pmatrix}
\]

B是个单值,因为只有一个神经元,所以只有一个bias,每个神经元对应一个bias,如果有多个神经元,它们都会有各自的b值。

输出层

由于我们只想完成一个回归(拟合)任务,所以输出层只有一个神经元。由于是线性的,所以没有用激活函数。

收集训练数据

房价预测问题,成为了机器学习的一个入门话题。我们也不能免俗,但是,不要用美国的什么多少平方英尺,多少个房间的例子来说事儿了,中国人不能理解。我们来个北京的例子!

影响北京房价的因素有很多,几个最重要的因子和它们的取值范围是:

  • 朝向(在北方地区,窗户面向阳光的房子要抢手一些):北=1,西=2,东=3,南=4
  • 地理位置:二环,三环,四环,五环,六环,分别取值为2,3,4,5,6,二环的房子单价最贵
  • 面积:40~120平米,连续值

由于一些原因,收集的数据不能用于教学,所以咱们根据以上规则创造一些数据:

import numpy as np
import matplotlib.pyplot as plt
from pathlib import Path

# y = w1*x1 + w2*x2 + w3*x3 + b
# W1 = 朝向:1,2,3,4 = N,W,E,S
# W2 = 位置几环:2,3,4,5,6
# W3 = 面积:平米
def TargetFunction(x1,x2,x3):
    w1,w2,w3,b = 2,10,5,10
    return w1*x1 + w2*(10-x2) + w3*x3 + b

def CheckFileData():
    Xfile = Path("HouseXData.npy")
    Yfile = Path("HouseYData.npy")
    if Xfile.exists() & Yfile.exists():
        XData = np.load(Xfile)
        YData = np.load(Yfile)
        return True,XData,YData

    return False,None,None

def create_sample_data(m):
    flag,XData,YData = CheckFileData()
    if flag == False:
        X0 = np.random.randint(1,5,m)
        X1 = np.random.randint(2,7,m)
        X2 = np.random.randint(40,120,m)
        XData = np.zeros((3,m))
        XData[0] = X0
        XData[1] = X1
        XData[2] = X2
        Y = TargetFunction(X0,X1,X2)
        noise = 20
        Noise = np.random.randint(1,noise,(1,m)) - noise/2
        YData = Y.reshape(1,m)
        np.save("HouseXData.npy", XData)
        np.save("HouseYData.npy", YData)
    return XData, YData

在TargetFunction函数中,\(w2*(10-x2)\),是因为越靠近二环的房子越贵,所以当x2=2时(二环),10-2=8;当x2=6时(六环),10-6=4。

令w1=2, w2=10, w3=5, b=10,所以最后的公式是:
\[z = w1·x_1 + w2·(10-x_2)+w3·x_3+b \= 2x_1 - 10(10-x_2)+5x_3+10 \= 2x_1 - 10x_2+5x_3+110
\]

定义前向计算过程

def forward_calculation(Xm,W,b):
    z = np.dot(W, Xm) + b
    return 

定义代价函数

我们用传统的均方差函数: \(loss = \frac{1}{2}(Z-Y)^2\),其中,Z是每一次迭代的预测输出,Y是样本标签数据。我们使用所有样本参与训练,因此损失函数实际为:

\[Loss = \frac{1}{2}(Z - Y) ^ 2\]

其中的分母中有个2,实际上是想在求导数时把这个2约掉,没有什么原则上的区别。

def check_diff(w, b, X, Y, count, prev_loss):
    Z = w * X + b
    LOSS = (Z - Y)**2
    loss = LOSS.sum()/count/2
    diff_loss = abs(loss - prev_loss)
    return loss, diff_loss

求针对W和B的梯度函数

求解W和B的梯度方法与我们前面的文章“单入单出的一层神经网络”完全一样,所以不再赘述,只说一下结论:
因为:

\[z = wx+b\]

\[loss = \frac{1}{2}(z-y)^2\]

所以我们用loss的值作为基准,去求w对它的影响,也就是loss对w的偏导数:

\[
\frac{\partial{loss}}{\partial{w}} = \frac{\partial{loss}}{\partial{z}}*\frac{\partial{z}}{\partial{w}} = (z-y)x
\]

\[
\frac{\partial{loss}}{\partial{b}} = \frac{\partial{loss}}{\partial{z}}*\frac{\partial{z}}{\partial{b}} = z-y
\]

变成代码:

def dJwb_single(Xm,Y,Z):
    dloss_z = Z - Y
    db = dloss_z
    dw = np.dot(dloss_z, Xm.T)
    return dw, db

每次迭代后更新W,B的值

def update_weights(w, b, dw, db, eta):
    w = w - eta*dw
    b = b - eta*db
    return w,b

主程序初始化

m = 1000    # 创造1000个样本
XData, Y = create_sample_data(m)
X = XData
n = X.shape[0]  # 每个样本的特征数
eta = 0.1   # 学习率0.1
loss, diff_loss, prev_loss = 10, 10, 5
eps = 1e-10
max_iteration = 100 # 最多100次循环
# 初始化w,b
b = np.zeros((1,1))
w = np.zeros((1,n))

程序主循环

for iteration in range(max_iteration):
    for i in range(m):
        Xm = X[0:n,i].reshape(n,1)
        Ym = Y[0,i].reshape(1,1)
        Z = forward_calculation(Xm, W, B)
        dw, db = dJwb_single(Xm, Ym, Z)
        W, B = update_weights(W, B, dw, db, eta)

        loss, diff_loss = check_diff(w,b,xxx,y,1,prev_loss)
        if diff_loss < eps:
            print(i)
            break
        prev_loss = loss
    print(iteration, w, b, diff_loss)
    if diff_loss < eps:
        break

怀着期待的心情用颤抖的右手按下了运行键......but......what happened?

C:\Users\Python\LinearRegression\MultipleInputSingleOutput.py:61: RuntimeWarning: overflow encountered in square
  LOSS = (Z - Y)**2
C:\Users\Python\LinearRegression\MultipleInputSingleOutput.py:63: RuntimeWarning: invalid value encountered in double_scalars
  diff_loss = abs(loss - prev_loss)
C:\Users\Python\LinearRegression\MultipleInputSingleOutput.py:55: RuntimeWarning: invalid value encountered in subtract
  w = w - eta*dw
0 [[nan nan nan]] [[nan]] nan
1 [[nan nan nan]] [[nan]] nan
2 [[nan nan nan]] [[nan]] nan
3 [[nan nan nan]] [[nan]] nan

怎么会overflow呢?于是右手的颤抖没有停止,左手也开始颤抖了。

我们遇到了传说中的梯度爆炸!数值太大,导致计算溢出了。第一次遇到这个情况,但相信不会是最后一次,因为这种情况在神经网络中太常见了。技术只服务于相信技术的人,技能只给与培养技能的人!别慌,让我们debug一下。

解决梯度爆炸

检查迭代中的数值变化情况

先把迭代中的关键值打印出来:

0 -----------
Z: [[0.]]
Y: [[469]]
dLoss/dZ: [[-469.]]
dw: [[  -938.  -1876. -37051.]]
db: [[-469.]]
W: [[  93.8  187.6 3705.1]]
B: [[46.9]]
1 -----------
Z: [[289982.7]]
Y: [[464]]
dLoss/dZ: [[289518.7]]
dw: [[  579037.4         1158074.8        22582458.60000001]]
db: [[289518.7]]
W: [[  -57809.94  -115619.88 -2254540.76]]
B: [[-28904.97]]
2 -----------
Z: [[-2.62364972e+08]]
Y: [[634]]
dLoss/dZ: [[-2.62365606e+08]]
dw: [[-5.24731213e+08 -1.57419364e+09 -3.04344103e+10]]
db: [[-2.62365606e+08]]
W: [[5.24153113e+07 1.57303744e+08 3.04118649e+09]]
B: [[26207655.65900001]]
......

最开始的W,B的值都是0,三次迭代后,W,B的值已经大的超乎想象了。可以停止运行程序了,想一想为什么。

难道是因为学习率太大吗?目前是0.1,设置成0.01试试看:

0 ----------
Z: [[0.]]
Y: [[469]]
dLoss/dZ: [[-469.]]
dw: [[  -938.  -1876. -37051.]]
db: [[-469.]]
W: [[ 0.938  1.876 37.051]]
B: [[0.469]]
1 -----------
Z: [[2899.827]]
Y: [[464]]
dLoss/dZ: [[2435.827]]
dw: [[  4871.654   9743.308 189994.506]]
db: [[2435.827]]
W: [[  -3.933654   -7.867308 -152.943506]]
B: [[-1.966827]]
2 ----------
Z: [[-17798.484679]]
Y: [[634]]
dLoss/dZ: [[-18432.484679]]
dw: [[  -36864.969358  -110594.908074 -2138168.222764]]
db: [[-18432.484679]]
W: [[  32.93131536  102.72760007 1985.22471676]]
B: [[16.46565768]]

没啥改进。

回想一个问题:为什么在“单入淡出的一层神经网络”一文的代码中,我们没有遇到这种情况?因为所有的X值都是在[0,1]之间的,而神经网络是以样本在事件中的统计分布概率为基础进行训练和预测的,也就是说,样本的各个特征的度量单位要相同。我们并没有办法去比较1米和1公斤的区别,但是,如果我们知道了1米在整个样本中的大小比例,以及1公斤在整个样本中的大小比例,比如一个处于0.2的比例位置,另一个处于0.3的比例位置,就可以说这个样本的1米比1公斤要小。这就提出了样本的归一化或者正则化的理论。

数据归一化

更多的数据归一化的问题,我们会另文给出,下面只提对我们解决当前问题有用的方法。

min-max标准化

也叫离差标准化,是对原始数据的线性变换,使结果落到[0,1]区间,转换函数如下:

\[
x_{new} = \frac{x-x_{min}}{x_{max}-x_{min}}
\]

其中max为样本数据的最大值,min为样本数据的最小值。
如果想要将数据映射到[-1,1],则将公式换成:
\[
x_{new} = \frac{x-x_{mean}}{x_{max}-x_{min}}
\]
mean表示数据的均值。

样本分析

再把这个表拿出来分析一下:
|样本序号|1|2|3|4|...|1000|
|---|---|----|---|--|--|--|
|样本特征值1:窗户朝向|1|3|2|4|...|2|
|样本特征值2:地理位置|3|2|6|3|...|4|
|样本特征值3:居住面积|96|100|54|72|...|69|
|样本标签值y:房价(万元)|434|500|321|482|...|410|

  • 特征值1 - 窗户朝向
    一共有”东”“南”“西”“北“四个值,用数字化表示是:
    东:3
    南:4
    西:2
    北:1
    因为超南的房子比较贵,其次为东,西,北。为啥东比西贵?因为夏天时朝西的窗户西晒时间长,比较热。
  • 特征值2 - 地理位置
    二环:2 - 单价最贵
    三环:3
    四环:4
    五环:5
    六环:6 - 单价最便宜
  • 特征值3 - 房屋面积
    统计所有样本数据得到房屋的面积范围是[40,120]

我们用min-max标准化来归一以上数据,得到下表:

样本序号 1 2 3 4 ... 1000
样本特征值1:窗户朝向 0 0.667 0.333 1 ... 0.33
样本特征值2:地理位置 0.25 0 1 0.25 ... 0.75
样本特征值3:居住面积 0.7 0.75 0.175 0.4 ... 0.36
样本标签值y:房价(万元) 434 500 321 482 ... 410

还有一个问题:标签值y是否需要归一化?没有任何理论说需要归一化标签值,所以我们先把这个问题放一放。

数据归一化的好处

下图展示了归一化前后的情况,左侧为前,右侧为后:

房屋面积的取值范围是[40,120],而地理位置的取值范围是[2,6],二者会形成一个很扁的椭圆,如左侧。这样在寻找最优解的时候,过程会非常曲折。运气不好的话,如同我们上面的代码,根本就没法训练。

归一化后,地理位置和房屋面积二者都归一到[0,1]之间,变成了可比的了,而且寻找最优解的路径也很直接,节省了时间。

归一化的实现

我们把归一化的函数写好:

def Normalize(X):
    X_new = np.zeros(X.shape)
    n = X.shape[0]
    w_num = np.zeros((1,n))
    for i in range(n):
        v = X[i,:]
        max = np.max(v)
        min = np.min(v)
        w_num[0,i] = max - min
        v = (v - min)/(max-min)
        X_new[i,:] = v
    return X_new, w_num

然后再改一下主程序,加上归一化的调用:

m = 1000
XData, Y = create_sample_data(m)
X, W_num = Normalize(XData)
n = X.shape[0]
eta = 0.1
loss, diff_loss, prev_loss = 10, 10, 5
eps = 1e-10
max_iteration = 1

B = np.zeros((1,1))
W = np.zeros((1,n))

for iteration in range(max_iteration):
    for i in range(m):
        Xm = X[0:n,i].reshape(n,1)
        Ym = Y[0,i].reshape(1,1)
        Z = forward_calculation(Xm, W, B)
        dw, db = dJwb_single(Xm, Ym, Z)
        W, B = update_weights(W, B, dw, db, eta)
        loss, diff_loss = check_diff(W,B,Xm,Ym,1,prev_loss)
        if diff_loss < eps:
            print(i)
            break
        prev_loss = loss
    print(iteration, W, B, diff_loss)
    if diff_loss < eps:
        break

用颤抖的双手同时按下Ctrl+F5,运行开始,结束,一眨眼!仔细看打印结果:

[[ 5.94417016 -40.05847929 394.83396979]] [[292.15951172]]

\[
w1=5.94417016 \w2=-40.05847929 \w3=394.83396979 \b=292.15951172
\]

比较一下原始公式:
\[z = w1·x_1 + w2·(10-x_2)+w3·x_3+b \= 2x_1 - 10(10-x_2)+5x_3+10 \= 2x_1 - 10x_2+5x_3+110 \w1=2 \w2=-10 \w3=5 \b=110
\]

什么鬼!怎么相差这么多?!

归一化的后遗症

仔细想想,训练居然收敛了,出结果了,但是和我们预期的不太一致。我们没有做归一化前,根本没结果。归一化后有结果,那么就是归一化起作用了,但它有什么副作用呢?一起逐个分析一下4个值。

w1是窗户朝向,取值范围[1,4],即:\(x_{min}=1, x_{max}=4\),目前\(w1=5.94417\),试着变换一下:

\[
\frac{w1}{x_{max}-x_{min}} = \frac{5.94417}{4-1}=1.98139 \simeq 2
\]
是不是和w1=2这个值非常的接近呢?!WoW!我从澡盆里跳了出来,给阿基米德打了一个电话,说:“我找到啦!”

再看W2是地理位置:
\[
\frac{w2}{x_{max}-x_{min}} = \frac{-40.058}{6-2}=-10.0145 \simeq -10
\]

再看W3是房屋面积:
\[
\frac{w3}{x_{max}-x_{min}} = \frac{394.8339}{119-40}=4.997 \simeq 5
\]

代码如下:

W_rel = np.zeros((1,n))
for i in range(n):
    W_rel[0,i] = W[0,i] / W_num[0,i]
print(W_rel)

其中W_num是在调用Normalize函数时返回的三个特征值的范围,亦即(3,4,79)。

再看b值......"元芳,你怎么看?"

“卑职以为,b值不是样本值,没有经过归一化。”

“你说得很对!但我们怎么解出b呢?”

“大人,这个好办,我们如此这样这样......把一堆样本值代入w1,w2,w3的公式,令b=0,看看计算出来的结果是什么,再和样本标签值去比较就可以了!”
\[
z = w1*x_1+w2*x_2+w3*x_3 +0\b = y - z
\]

为了避免单个的样本误差,用100个样本做比较,得到差值之和,再平均,代码如下:

B = 0
for i in range(10):
    xm = XData[0:n,i].reshape(n,1)
    zm = forward_calculation(xm, W_rel, 0)
    ym = Y[0,i].reshape(1,1)
    B = B + (ym - zm)
b = B / 10
print(b)

我们在计算z的时候,故意把第三个参数设置为0,即令b=0。ym是每个样本的标签值,它与z的差值自然就是真正的b值。

上述两段代码得到的输出如下:

[[  1.98139005 -10.01461982   4.99789835]]
[[110.29389945]]

至此,我们完美地解决了北京地区的房价预测问题!但是还没有解决自己可以有能力买一套北京的房子的问题......

最后遗留一个问题,如果标签值y也归一化的话,也可以得到训练结果,但是怎么解释呢?大家有兴趣的话可以研究一下,分享出来。反正笔者是没研究出来。

全套教程请点击:微软 AI 开发教程

原文地址:https://www.cnblogs.com/ms-uap/p/10057711.html

时间: 2024-08-05 02:50:22

系列5-多入单出的一层神经网络能做什么的相关文章

WPF技术触屏上的应用系列(五): 图片列表异步加载、手指进行缩小、放大、拖动 、惯性滑入滑出等效果

原文:WPF技术触屏上的应用系列(五): 图片列表异步加载.手指进行缩小.放大.拖动 .惯性滑入滑出等效果 去年某客户单位要做个大屏触屏应用,要对档案资源进行展示之用.客户端是Window7操作系统,54寸大屏电脑电视一体机.要求有很炫的展示效果,要有一定的视觉冲击力,可触控操作.当然满足客户的要求也可以有其它途径.但鉴于咱是搞 .NET技术的,首先其冲想到的微软WPF方面,之前对WPF的了解与学习也只是停留在比较浅的层面,没有进一步深入学习与应用.所以在项目接来以后,也就赶鸭子上架了,经过努力

包学会之浅入浅出Vue.js:结业篇

在第一篇<包学会之浅入浅出Vue.js:开学篇>和上一篇<包学会之浅入浅出Vue.js:升学篇>的学习中,我们首先了解了Vue环境的搭建以及两个重要思想--路由和组件的学习,通过组件库中的按钮组件和导航组件,相信大家也开始了解相应的知识点,接下来我们会详细分析下如何完成由多个组件组成一个复用组件的开发流程. 下面先看看我们的需求 列表组件quiList.vue 本节我们主要要完成这样一个列表功能,每一行的列表是一个组件,列表内可能出现按钮组件或者箭头组件,点击按钮组件可以自定义事件

浅入浅出数据结构(25)——最小生成树问题

上一篇博文我们提到了图的最短路径问题:http://www.cnblogs.com/mm93/p/8434056.html.而最短路径问题可以说是这样的一个问题:路已经修好了,该怎么从这儿走到那儿?但是在和图有关的问题中,还有另一种有趣的问题:修路的成本已经知道了,该怎么修路才能尽可能节约成本,同时将这些地方都连起来? 比如我们知道有这么几个城市,它们互相之间还没有路: 经过实地考察后,发现可以修的路以及各条路的修路成本如下: 但是我们的预算有限,需要在修路时尽可能的省钱(也就是尽量减小所有边的

包学会之浅入浅出Vue.js:升学篇

上一篇<包学会之浅入浅出Vue.js:开学篇>中,我们初步了解单页面组件这个概念,现在通过一个项目,来进一步解析组件的应用吧,Go~ 需求背景 组件库是做UI和前端日常需求中经常用到的,把一个按钮,导航,列表之类的元素封装起来,方便日常使用,调用方法只需直接写上<qui-button></qui-button>或者<qui-nav></qui-nav>这样的代码就可以,是不是很方便呢,接下来我们将要完成以下页面: 这是我们组件库的首页,包含三个子

全球最新独角兽榜单出炉 中国公司33家上榜!

全球最新独角兽榜单出炉 中国公司33家上榜! 华股财经2016-09-09 13:39:24阅读(1893)评论(0) 声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场.举报 全球最新独角兽榜单出炉,中国公司33家上榜!最产独角兽的领域竟是电商.软件服务--(附榜单) 转眼已近2016年最后一季,从去年下半年开始的全球资本寒冬仍在持续.受到英国脱欧.美国大选.中国经济增速下滑.美联储加息等一系列因素影响,全球投资机构普遍对市场持观望态度. Uber.滴

浅入浅出SQL注入

已经开始了学习牛腩新闻发布系统,在讲后台代码的时候讲了一些重构SQLHelper的知识,存储过程和触发器等,这些以前都是接触过的.而SQL注入是以前没有注意过的,所以停下来总结学习一下SQL注入. 首先什么是SQL注入呢? 实战篇~~~~~~~~~~ SQL注入概念 所谓SQL注入,就是通过把SQL命令插入到Web表单提交或输入域名或页面请求的查询字符串,最终达到欺骗服务器执行恶意的SQL命令,比如先前的很多影视网站泄露VIP会员密码大多就是通过WEB表单递交查询字符暴出的,这类表单特别容易受到

浅入浅出---JQuery到底是什么?

学习完了JQuery之后,我便感觉云里雾里的,JQuery到底是什么,朦朦胧胧感觉到JQuery应该是javascript函数的封装,就应该像WinForm窗体应用程序中可以调用的系统函数,据之前所学的javascript,知道JavaScript是一种镶嵌在HTML文档中的一种脚本语言, <body> <formid="form1" name="form1" method="post" > <label for=&

浅入深出Vue:工具准备之WebStorm安装配置

浅入深出Vue之工具准备(一):WebStorm安装配置 工欲善其事必先利其器,让我们先做好准备工作吧 导航篇 WebStorm安装配置 所有工具的下载地址都可以在导航篇中找到,这里我们下载的是最新版本的WebStorm 安装 下载后即可食用,此步骤与正常软件安装并无二样. 若有固态硬盘,尽可能安装在固态硬盘上,物理加速一下~ 按照自己的系统来勾选32位还是64位,若羽的机器装的是64位系统,因此勾选的是64位.另外为了防止本机没有JetBrains系列所需的JRE环境,建议直接勾选即可. 接下

浅入深出ElasticSearch构建高性能搜索架构

浅入深出ElasticSearch构建高性能搜索架构  课程学习地址:http://www.xuetuwuyou.com/course/161 课程出自学途无忧网:http://www.xuetuwuyou.com 一.课程用到的软件 ElasticSearch5.0.0 Spring Tool Suite 3.8.2.RELEASE Maven3.0.5 Spring4 Netty4 Hadoop2.7.1 Kibana5.0 JDK1.8.0_111 二.课程目标 1.快速学习Elastic