人工智能_4_k近邻_贝叶斯_模型评估

机器学习常用算法
k近邻算法
  求出未知点 与周围最近的 k个点的距离
  查看这k个点中大多数是哪一类
  根号((x已知-x未知)^2+(y已知-y未知)^2)  即平面间2点距离公式
  收异常点影响较大,因此需要做标准化处理
  API:sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm="auto")
      algorithm:{"auto","ball_tree","kd_tree","brute"}
          效率不同
          ball_tree:会使用BallTree
          kd_tree:会使用KdTree
          auto:尝试根据传递的fit方法的值决定最适合的算法
      n_neighbors: 邻居数,默认为5
处理:
  时间特征:需要转为年,月,日,时,分,秒 ,当做几个新的特征处理,并不是全部要加入,要根据结果选择加入
  目标值:可以去掉某些目标值
from sklearn.neighbors import KNeighborsClassifier
def knnCls():
    """
    预测鸢尾花的种类
    :return:
    """
    # 读取数据
    from sklearn.datasets import load_iris
    iris = load_iris()
    print(iris.feature_names)
    print(iris.data[0:5,:])
    print(iris.data)

    # 处理数据
    # 1,缩小数据  对于csv中的数据可使用 data.query("id>8 & money <2000") 等过滤掉一些数据
    # 2,时间处理
    #   time_value = pd.to_datetime(data中的时间列,unit="s") unit 表示时间最小的单位
    #        time_value格式为 1970-01-01 00:00:00 注意不能单独获取年月日
    #   time_value=pd.DatatimeIndex(time_value) 此时转换为字典格式的时间
    #   增加特征,例如年相同,就不能当做特征
    #       data[‘day‘] = time_value.day,weekday,hour等不建议使用 此方式
    #           建议使用data.loc["day"] = xxx
    #       pandas使用data.drop(["time"],axis=1) 删除原来的时间戳,
    #       数组使用np.delete(data,[1,2,3等列],axis=1) 删除原来的时间戳
    # 3,目标值处理
    #     目标值过多,单有的目标值数量太少,可以忽略
    #     分组求和,本例中 可表示为 把数量少于n个的种类删除(虽然本类中目标值只有3个,其实不用删除,只为演示效果)
    #     group = data.groupby("目标值列名").count()
    #     此时返回结果 列数不变,目标值列名列为所有的目标值,其他列不再是值,而是分组后该组的个数
    #     tf = group[group[‘非目标值列列名‘]>n].reset_index()
    #     data = data[data[目标列列名].isin(tf.目标列列名)]
    #     取出目标值 y =data["目标列"]
    #     取出目标值 x =data.drop(["目标列"],axis=1)
    #     x_train,y_train,x_test,y_test数据分割 train_test_spilt
    # 特征工程(标准化)
    #   x_train 进行fit_transform
    #   注意 也需要对 x_test进行标准化,注意使用 transform即可, 即 使用 训练集的参数进行标准化
    #   标准化对数据最后结果影响很大
    # 算法处理
    knn = KNeighborsClassifier(n_neighbors=5)
    # fit ,predict,score
    knn.fit(x_train,y_train)
    # 得出结果
    y_predict = knn.predict(x_test) # 得出预测目标值
    # 得出准确率
    knn.score(x_test,y_test) # 也可以使用y_predict与y_test 得出
    return None
问题1:k的取值问题,很大,很小?
    很大:易受异常点影响
    很小:容易受k值(数量)波动
性能问题:每一个未知数来都需要与全部数据进行计算
    很费时间
调参:n_neighbors 的合适值

优点:易于理解,易实现,无需参数(算法里边的参数)估计,无需训练缺点:计算慢,耗内存,必须有k

朴素(条件独立)贝叶斯算法 (需要学习概率相关内容)
概率:
  条件概率:P(A1,A2|B) = P(A1|B)*P(A2|B)  A1,A2 不能相互影响  应该是条件独立
  联合概率 P(A,B) = P(A)*P(B)
例:常用与对于文章的分类
  每个文章会计算属于每个分类的概率,比较数据那个的概率较大,就是该分类
P(科技|文章1)  文档
P(科技|词1,词2.....)  文档:词1,词2....  (多个条件下 x的概率)
朴素贝叶斯-贝叶斯公式
=====================================
个人体会:例 有两个箱子 A:两黑,两白球 B两黑球,1白球
  随机从两个盒子中拿出一个球,是白球, 求是从A中拿出的概率
  P(A|白) = (P(白|A)P(A))/P(白) = 0.5*0.5/(1/2*1/2+1/2*1/3)=7/12
  P(B|白) = (P(白|B)P(B))/P(白) = 1/3*0.5/(1/2*1/2+1/2*2/3)=5/12
=====================================
  求在包含这些词的情况下是科技类的概率=在科技分类下这些词(这个文档)出现的概率*科技类的概率/在所有文档中,这些词的概率
  P(C|W)=(P(W|C)P(C))/P(W)
      W为给定文档的特征值(频数统计,预测文档提供),C为文档类别
      可理解为:P(C|F1,F2.....)=(P(F1,F2..|C)P(C))/P(F1,F2,....)
  P(C):每个文档类别的概率(某类文档数/文档总数)
  P(W|C):给定列别下 特征(词)的概率
      P(F1|C) = Ni/N (表示该次出现在科技文章中的概率)   F1,F2.....的概率乘积  表示 科技类文章中这些词都出现的概率
          Ni为F1词在c类所有文档中出现的次数,(科技类文章中改词的次数)
          N为c类文档下所有词的总和 .(科技类文章中 所有的词 和)
  有些情况下得到文章属于某类的概率为0,不合理
      解决办法:拉普拉斯平滑系数  P(F1|C) = (Ni+a)/N+am
          a:指定系数一般为1,m为训练文档中出现的特征词的个数
算法API sklearn.native_bayes.MultinomiaNB
  sklearn.native_bayes.MultinomiaNB(alpha=1.0) 拉普拉斯平滑系数,不属于超参数
例:新闻分类
from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
def naviebayes():
    """
    朴素贝叶斯进行文章分类
    :return:
    """
    # 加载数据,进行分割
    news = fetch_20newsgroups(subset="all")
    x_train,x_test,y_train,y_test = train_test_split(news.data,news.target,test_size=0.25)
    # 生成文章特征词
    from sklearn.feature_extraction.text import TfidfVectorizer
    from sklearn.metrics.classification import classification_report
    tf = TfidfVectorizer()

    #以训练集中词的列表进行 每篇文章重要性统计
    x_train = tf.fit_transform(x_train)
    # print(tf.get_feature_names()) # 全部文章中所有的词
    x_test = tf.transform(x_test)
    # 朴素贝叶斯进行评估
    from sklearn.naive_bayes import MultinomialNB
    mlt = MultinomialNB(alpha=1.0)
    #print(x_train) # .toarray 可转化为二维数组
    """
    (0, 122986)    0.1189432263044612 # 第一篇文章中 feature_names下标122986的这个词 出现的频率
    (0, 139798)    0.25782353561208343
    (0, 117722)    0.12774899257629055
    """
    mlt.fit(x_train,y_train)
    y_predict = mlt.predict(x_test)
    print(classification_report(y_test,y_predict,target_names=news.target_names))
    # 算出准确率,由于文章词的数量确定,数据的正确性,因此 准确率不易提高
    # print(mlt.score(x_test,y_test))
优点:
  发源于古典数学,有稳定的分类效率
  速度快,效率高
  对数据缺失不敏感,常用于文本分类
缺点:
  前提是一个词的出现与另一个无关,当词之间出现关联时,效果不好
if __name__ == "__main__":
    # knnCls()
    naviebayes()
    pass
模型评估(不仅靠准确率,还有召回率)
  准确率:estimator.score() 最常见是预测结果的准确率,即百分比
  混淆矩阵
准确率 35%,但召回率 75%
"""                         预测结果
                         正例(猫)   假例(不是猫)
真实结果    20正例(猫)       真正例(15)     伪反例(5)
真实结果    80假例(不是猫)    伪正例(60)     真反例(20)
"""
  精确率:预测为正例的样本中,真正例的比例
  召回率:真实值正例中,预测为正例的比例 15/20 越高越好
其他分类标准F1-SCORE 反映了模型的稳健性
  F1 = 2*精确率*召回率/(精确率+召回率)
API sklearn.metrics.classification_reportly(y_true,y_pred,target_names=None)
  y_true:真实目标值
  y_pred:估计器预测目标值
  terget_names:目标类别名称
  return:每个类(目标值)的精确率与召回率
模型选择与调优
  交叉验证:让别评估模型更加准确
      训练集分为n份:训练集(n-1)份+验证集1份 得出一个准确率 模型一
      再次训练集分为n份:训练集(n-1)份+验证集1份(就是修改验证集,可能此时第一份为验证集) 得出一个准确率 模型二
      ..... 依次进行 得出n个准确率   求平均 即可以作为可信一点的模型结果
      分为n份就称为n折交叉验证
  网格搜索(超参数搜索):调参数(k近邻)
      与交叉验证组合k = 3,5,7 10折交叉验证
          k=3 时的平均,k=5的平均...  比较即可得出比较可信的k值
      当有两个找参数时:两两组合
  API sklearn.model_selection.GridSearchCV(estimator,param_grid=none,cv=None)
      estimator:估计器(knn) 此时估计器中不用再写超参数
      param_grid:估计参数 {"n_neighbors":[1,2,3,4,5]}
      cv:几折交叉验证
          不用 knn.fit predict
      此时返回的实例
          fit(x_train,y_train):输入训练数据
          score(x_test,y_test):准确率
          best_score_:在交叉验证中最好的结果
          best_estimator_:在交叉验证中最好的参数模型
          cv_results_:每次交叉验证后验证集集准确率和训练集准确率(验证集平均值)
from sklearn.model_selection import GridSearchCV
gc = GridSearchCV(KNeighborsClassifier(),param_grid={"n_neighbors":[1,2,3,4,5]})
gc.fit(x_train,y_train)
机器学习常用算法k近邻算法  求出未知点 与周围最近的 k个点的距离  查看这k个点中大多数是哪一类  根号((x已知-x未知)^2+(y已知-y未知)^2)  即平面间2点距离公式  收异常点影响较大,因此需要做标准化处理  API:sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm="auto")      algorithm:{"auto","ball_tree","kd_tree","brute"}效率不同          ball_tree:会使用BallTree          kd_tree:会使用KdTree          auto:尝试根据传递的fit方法的值决定最适合的算法      n_neighbors: 邻居数,默认为5处理:时间特征:需要转为年,月,日,时,分,秒 ,当做几个新的特征处理,并不是全部要加入,要根据结果选择加入  目标值:可以去掉某些目标值from sklearn.neighbors import KNeighborsClassifierdef knnCls():"""预测鸢尾花的种类:return:    """    # 读取数据from sklearn.datasets import load_iris    iris = load_iris()print(iris.feature_names)print(iris.data[0:5,:])print(iris.data)

# 处理数据# 1,缩小数据  对于csv中的数据可使用 data.query("id>8 & money <2000") 等过滤掉一些数据# 2,时间处理#   time_value = pd.to_datetime(data中的时间列,unit="s") unit 表示时间最小的单位#        time_value格式为 1970-01-01 00:00:00 注意不能单独获取年月日#   time_value=pd.DatatimeIndex(time_value) 此时转换为字典格式的时间#   增加特征,例如年相同,就不能当做特征#       data[‘day‘] = time_value.day,weekday,hour等不建议使用 此方式#           建议使用data.loc["day"] = xxx    #       pandas使用data.drop(["time"],axis=1) 删除原来的时间戳,    #       数组使用np.delete(data,[1,2,3等列],axis=1) 删除原来的时间戳# 3,目标值处理#     目标值过多,单有的目标值数量太少,可以忽略#     分组求和,本例中 可表示为 把数量少于n个的种类删除(虽然本类中目标值只有3个,其实不用删除,只为演示效果)    #     group = data.groupby("目标值列名").count()    #     此时返回结果 列数不变,目标值列名列为所有的目标值,其他列不再是值,而是分组后该组的个数#     tf = group[group[‘非目标值列列名‘]>n].reset_index()    #     data = data[data[目标列列名].isin(tf.目标列列名)]    #     取出目标值 y =data["目标列"]    #     取出目标值 x =data.drop(["目标列"],axis=1)    #     x_train,y_train,x_test,y_test数据分割 train_test_spilt    # 特征工程(标准化)    #   x_train 进行fit_transform    #   注意 也需要对 x_test进行标准化,注意使用 transform即可, 即 使用 训练集的参数进行标准化#   标准化对数据最后结果影响很大# 算法处理knn = KNeighborsClassifier(n_neighbors=5)# fit ,predict,scoreknn.fit(x_train,y_train)# 得出结果y_predict = knn.predict(x_test) # 得出预测目标值# 得出准确率knn.score(x_test,y_test) # 也可以使用y_predict与y_test 得出return None问题1:k的取值问题,很大,很小?很大:易受异常点影响    很小:容易受k值(数量)波动性能问题:每一个未知数来都需要与全部数据进行计算    很费时间调参:n_neighbors 的合适值

优点:易于理解,易实现,无需参数(算法里边的参数)估计,无需训练\缺点:计算慢,耗内存,必须有k

朴素(条件独立)贝叶斯算法 (需要学习概率相关内容)概率:条件概率:P(A1,A2|B) = P(A1|B)*P(A2|B)  A1,A2 不能相互影响  应该是条件独立  联合概率 P(A,B) = P(A)*P(B)例:常用与对于文章的分类  每个文章会计算属于每个分类的概率,比较数据那个的概率较大,就是该分类P(科技|文章1)  文档P(科技|词1,词2.....)  文档:词1,词2....  (多个条件下 x的概率)朴素贝叶斯-贝叶斯公式=====================================个人体会:例 有两个箱子 A:两黑,两白球 B两黑球,1白球  随机从两个盒子中拿出一个球,是白球, 求是从A中拿出的概率  P(A|白) = (P(白|A)P(A))/P(白) = 0.5*0.5/(1/2*1/2+1/2*1/3)=7/12P(B|白) = (P(白|B)P(B))/P(白) = 1/3*0.5/(1/2*1/2+1/2*2/3)=5/12=====================================求在包含这些词的情况下是科技类的概率=在科技分类下这些词(这个文档)出现的概率*科技类的概率/在所有文档中,这些词的概率  P(C|W)=(P(W|C)P(C))/P(W)      W为给定文档的特征值(频数统计,预测文档提供),C为文档类别      可理解为:P(C|F1,F2.....)=(P(F1,F2..|C)P(C))/P(F1,F2,....)  P(C):每个文档类别的概率(某类文档数/文档总数)  P(W|C):给定列别下 特征(词)的概率      P(F1|C) = Ni/N (表示该次出现在科技文章中的概率)   F1,F2.....的概率乘积  表示 科技类文章中这些词都出现的概率          Ni为F1词在c类所有文档中出现的次数,(科技类文章中改词的次数)          N为c类文档下所有词的总和 .(科技类文章中 所有的词 和)有些情况下得到文章属于某类的概率为0,不合理      解决办法:拉普拉斯平滑系数  P(F1|C) = (Ni+a)/N+am          a:指定系数一般为1,m为训练文档中出现的特征词的个数算法API sklearn.native_bayes.MultinomiaNB  sklearn.native_bayes.MultinomiaNB(alpha=1.0) 拉普拉斯平滑系数,不属于超参数例:新闻分类from sklearn.datasets import fetch_20newsgroupsfrom sklearn.model_selection import train_test_splitdef naviebayes():"""朴素贝叶斯进行文章分类:return:    """    # 加载数据,进行分割news = fetch_20newsgroups(subset="all")    x_train,x_test,y_train,y_test = train_test_split(news.data,news.target,test_size=0.25)# 生成文章特征词from sklearn.feature_extraction.text import TfidfVectorizerfrom sklearn.metrics.classification import classification_report    tf = TfidfVectorizer()

#以训练集中词的列表进行 每篇文章重要性统计x_train = tf.fit_transform(x_train)# print(tf.get_feature_names()) # 全部文章中所有的词x_test = tf.transform(x_test)# 朴素贝叶斯进行评估from sklearn.naive_bayes import MultinomialNB    mlt = MultinomialNB(alpha=1.0)#print(x_train) # .toarray 可转化为二维数组"""    (0, 122986)    0.1189432263044612 # 第一篇文章中 feature_names下标122986的这个词 出现的频率    (0, 139798)    0.25782353561208343    (0, 117722)    0.12774899257629055    """mlt.fit(x_train,y_train)    y_predict = mlt.predict(x_test)print(classification_report(y_test,y_predict,target_names=news.target_names))# 算出准确率,由于文章词的数量确定,数据的正确性,因此 准确率不易提高# print(mlt.score(x_test,y_test))优点:发源于古典数学,有稳定的分类效率  速度快,效率高  对数据缺失不敏感,常用于文本分类缺点:前提是一个词的出现与另一个无关,当词之间出现关联时,效果不好if __name__ == "__main__":# knnCls()naviebayes()pass模型评估(不仅靠准确率,还有召回率)准确率:estimator.score() 最常见是预测结果的准确率,即百分比  混淆矩阵准确率 35%,但召回率 75%"""                         预测结果                         正例(猫)   假例(不是猫)真实结果    20正例(猫)       真正例(15)     伪反例(5)真实结果    80假例(不是猫)    伪正例(60)     真反例(20)"""精确率:预测为正例的样本中,真正例的比例  召回率:真实值正例中,预测为正例的比例 15/20 越高越好其他分类标准F1-SCORE 反映了模型的稳健性  F1 = 2*精确率*召回率/(精确率+召回率)API sklearn.metrics.classification_reportly(y_true,y_pred,target_names=None)  y_true:真实目标值  y_pred:估计器预测目标值  terget_names:目标类别名称  return:每个类(目标值)的精确率与召回率模型选择与调优  交叉验证:让别评估模型更加准确      训练集分为n份:训练集(n-1)份+验证集1份 得出一个准确率 模型一      再次训练集分为n份:训练集(n-1)份+验证集1份(就是修改验证集,可能此时第一份为验证集) 得出一个准确率 模型二      ..... 依次进行 得出n个准确率   求平均 即可以作为可信一点的模型结果      分为n份就称为n折交叉验证  网格搜索(超参数搜索):调参数(k近邻)与交叉验证组合k = 3,5,7 10折交叉验证          k=3 时的平均,k=5的平均...  比较即可得出比较可信的k值      当有两个找参数时:两两组合  API sklearn.model_selection.GridSearchCV(estimator,param_grid=none,cv=None)      estimator:估计器(knn) 此时估计器中不用再写超参数      param_grid:估计参数 {"n_neighbors":[1,2,3,4,5]}      cv:几折交叉验证          不用 knn.fit predict此时返回的实例          fit(x_train,y_train):输入训练数据          score(x_test,y_test):准确率          best_score_:在交叉验证中最好的结果          best_estimator_:在交叉验证中最好的参数模型          cv_results_:每次交叉验证后验证集集准确率和训练集准确率(验证集平均值)from sklearn.model_selection import GridSearchCVgc = GridSearchCV(KNeighborsClassifier(),param_grid={"n_neighbors":[1,2,3,4,5]})gc.fit(x_train,y_train)

原文地址:https://www.cnblogs.com/Dean0731/p/11610394.html

时间: 2024-08-24 05:57:01

人工智能_4_k近邻_贝叶斯_模型评估的相关文章

机器学习中的贝叶斯方法---先验概率、似然函数、后验概率的理解及如何使用贝叶斯进行模型预测(2)

在 机器学习中的贝叶斯方法---先验概率.似然函数.后验概率的理解及如何使用贝叶斯进行模型预测(1)文章中介绍了先验分布和似然函数,接下来,将重点介绍后验概率,以及先验概率.似然函数.后验概率三者之间的关系---贝叶斯公式. 在这篇文章中,我们通过最大化似然函数求得的参数 r 与硬币的抛掷次数(抛掷次数是10,求得的r=0.9)有关,为了更好地描述 参数 r 与 抛掷次数之间的关系,对下面符号作一些说明: 参数 r :抛一次硬币出现正面的概率,显然 r 的取值范围为[0,1] yN,在N次抛硬币

Python用PyMC3实现贝叶斯线性回归模型

在本文中,我们将在贝叶斯框架中引入回归建模,并使用PyMC3 MCMC库进行推理. 我们将首先回顾经典或频率论者的多重线性回归方法.然后我们将讨论贝叶斯如何考虑线性回归. 用PyMC3进行贝叶斯线性回归 在本节中,我们将对统计实例进行一种历史悠久的方法,即模拟一些我们知道的属性的数据,然后拟合一个模型来恢复这些原始属性. 什么是广义线性模型? 在我们开始讨论贝叶斯线性回归之前,我想简要地概述广义线性模型(GLM)的概念,因为我们将使用它们来在PyMC3中制定我们的模型. 广义线性模型是将普通线性

贝叶斯_文本分析

一.文本关键词提取 1.过滤掉文本中出现的停用词 停用词:指与文章主题不相干的词,符号等.表现在:1.文本中大量出现:2.与主旨不相关:3.对于分析文本没用处 2.TF-IDF决定关键词 (1)首先进行词频(Term Frequency,TF),IDF,TF-IDF统计 TF-IDF统计方法用于评估某字词对于一个文件集或一个语料库中的其中一份文件的重要程度.字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.主要思想:如果某一字词在一片文章中出现的平率T

概率图模型:贝叶斯网络

http://blog.csdn.net/pipisorry/article/details/51461997 贝叶斯网络图模型的表示 为了理解有向图对于描述概率分布的作用,首先考虑三个变量 a, b, c 上的一个任意的联合分布 p(a, b, c) .注意,现阶段我们不需要对这些变量做出任何更多的假设,例如它们是离散的还是连续的.实际上,图模型的一个强大的方面是,一个具体的图可以描述一大类概率分布.通过使用概率的乘积规则(1.11),我们可以将联合概率分布写成下面的形式. p(a, b, c

PGM:贝叶斯网表示之朴素贝叶斯模型naive Bayes

http://blog.csdn.net/pipisorry/article/details/52469064 独立性质的利用 条件参数化和条件独立性假设被结合在一起,目的是对高维概率分布产生非常紧凑的表示. 随机变量的独立性 [PGM:概率论基础知识:独立性性质的利用] 条件参数化方法 Note: P(I), P(S | i0), P(S | i1)都是二项式分布,都只需要一个参数. 皮皮blog 朴素贝叶斯模型naive Bayes 朴素贝叶斯模型的学生示例 {这个示例很好的阐述了什么是朴素

概率图模型:贝叶斯网络与朴素贝叶斯网络

http://blog.csdn.net/pipisorry/article/details/51471222 贝叶斯与频率派思想 频率派思想 长久以来,人们对一件事情发生或不发生,只有固定的0和1,即要么发生,要么不发生,从来不会去考虑某件事情发生的概率有多大,不发生的概率又是多大.而且事情发生或不发生的概率虽然未知,但最起码是一个确定的值. 比如如果问那时的人们一个问题:"有一个袋子,里面装着若干个白球和黑球,请问从袋子中取得白球的概率是多少?"他们会立马告诉你,取出白球的概率就是

机器学习基础——带你实战朴素贝叶斯模型文本分类

本文始发于个人公众号:TechFlow 上一篇文章当中我们介绍了朴素贝叶斯模型的基本原理. 朴素贝叶斯的核心本质是假设样本当中的变量服从某个分布,从而利用条件概率计算出样本属于某个类别的概率.一般来说一个样本往往会含有许多特征,这些特征之间很有可能是有相关性的.为了简化模型,朴素贝叶斯模型假设这些变量是独立的.这样我们就可以很简单地计算出样本的概率. 想要回顾其中细节的同学,可以点击链接回到之前的文章: 机器学习基础--让你一文学会朴素贝叶斯模型 在我们学习算法的过程中,如果只看模型的原理以及理

PGM:贝叶斯网络与朴素贝叶斯网络

http://blog.csdn.net/pipisorry/article/details/51471222 贝叶斯与频率派思想 频率派思想 长久以来,人们对一件事情发生或不发生,只有固定的0和1,即要么发生,要么不发生,从来不会去考虑某件事情发生的概率有多大,不发生的概率又是多大.而且事情发生或不发生的概率虽然未知,但最起码是一个确定的值. 比如如果问那时的人们一个问题:"有一个袋子,里面装着若干个白球和黑球,请问从袋子中取得白球的概率是多少?"他们会立马告诉你,取出白球的概率就是

PGM:贝叶斯网络

http://blog.csdn.net/pipisorry/article/details/51461997 贝叶斯网络图模型的表示 为了理解有向图对于描述概率分布的作用,首先考虑三个变量 a, b, c 上的一个任意的联合分布 p(a, b, c) .注意,现阶段我们不需要对这些变量做出任何更多的假设,例如它们是离散的还是连续的.实际上,图模型的一个强大的方面是,一个具体的图可以描述一大类概率分布.通过使用概率的乘积规则(1.11),我们可以将联合概率分布写成下面的形式.p(a, b, c)