ML(3.2): NavieBayes R_kalR

ML3.1 介绍e1071包实施朴素贝叶斯分类的函数,本例使用klaR包中的NaiveBayes函数,因为该函数较之前者增加了两个功能,一个是可以输入先验概率,另一个是在正态分布基础上增加了核平滑密度函数。为了避免过度拟合,在训练时还要将数据分割进行多重检验,所以我们还使用了caret包的一些函数进行配合。

caret::train

语法: train(form, data, ..., weights, subset, na.action = na.fail, contrasts = NULL)

  • 安装程序包

    install.packages("caret")
    install.packages("mlbench")
    install.package("klaR")
  • 创建训练集和测试集

    index <-sample(1:nrow(iris), 100)
    iris.train <-iris[index, ]
    iris.test <-iris[-index, ]
  • 加载包 使用朴素贝叶斯建模

    fitControl <- trainControl(method = "repeatedcv", number = 10, repeats = 3,returnResamp = "all")
    model1 <- train(Species~., data = iris.train,method=‘nb‘,trControl = fitControl)
  • 返回测试数据的混淆矩阵

    > pred3 <- predict(model1, iris.test, type="raw")
    > table(pred3,iris.test$Species)
    
    pred3        setosa versicolor virginica
      setosa         10          0         0
      versicolor      0         18         2
      virginica       0          0        20
时间: 2024-11-08 15:35:57

ML(3.2): NavieBayes R_kalR的相关文章

ML(3.1): NavieBayes在R中的应用

朴素贝叶斯方法是一种使用先验概率去计算后验概率的方法, 具体见上一节. 算法包:e1071 函数:navieBayes(formule,data,laplace=0,...,subset,na.action=na.pass) Formule: 公式的形式:class~x1 + x2 + .....  相互作用是不允许的 data: 数据集 lapace: 正面双控制拉普拉期平滑.默认值(0)禁用拉普拉斯平滑.它的思想非常简单,就是对没类别下所有划分的计数为1,这样如果训练样本集数量充分大时,并不

贝叶斯、朴素贝叶斯及调用spark官网 mllib NavieBayes示例

贝叶斯法则 机器学习的任务:在给定训练数据D时,确定假设空间H中的最佳假设. 最佳假设:一种方法是把它定义为在给定数据D以及H中不同假设的先验概率的有关知识下的最可能假设 贝叶斯理论提供了一种计算假设概率的方法,基于假设的先验概率.给定假设下观察到不同数据的概率以及观察到的数据本身 先验概率和后验概率 用P(A)表示在没有训练数据前假设A拥有的初始概率.P(A)被称为A的先验概率. 先验概率反映了关于A是一正确假设的机会的背景知识 如果没有这一先验知识,可以简单地将每一候选假设赋予相同的先验概率

Mercedes-Benz NEC BGA 315MHZ 433MHZ 434MHZ GLK GLA GLC ML W204 W207 W212 W221 W222 S300 S350 S400 S500 S550 S600 C180 C200 C260 C300 ES350 GLK300 GLA200 E260L C200 B200 S320L Mercedes-Benz KEY PC

AUTO ECU CHIPS  STOCK ESL Motor  ELV Motor  Steering Lock Wheel Motor for Mercedes-Benz ESL/ELV Motor Steering Lock Wheel Motor for Mercedes-Benz W204 W207 W212 esl motor elv motor Mercedes-Benz NEC   BGA 315MHZ 433MHZ  434MHZ GLK GLA GLC ML W204 W20

Spark ML下实现的多分类adaboost+naivebayes算法在文本分类上的应用

1. Naive Bayes算法 朴素贝叶斯算法算是生成模型中一个最经典的分类算法之一了,常用的有Bernoulli和Multinomial两种.在文本分类上经常会用到这两种方法.在词袋模型中,对于一篇文档$d$中出现的词$w_0,w_1,...,w_n$, 这篇文章被分类为$c$的概率为$$p(c|w_0,w_1,...,w_n) = \frac{p(c,w_0,w_1,...,w_n)}{p(w_0,w_1,...,w_n)} = \frac{p(w_0,w_1,...,w_n|c)*p(c

Notes : &lt;Hands-on ML with Sklearn &amp; TF&gt; Chapter 7

.caret, .dropup > .btn > .caret { border-top-color: #000 !important; } .label { border: 1px solid #000; } .table { border-collapse: collapse !important; } .table td, .table th { background-color: #fff !important; } .table-bordered th, .table-bordere

机器学习 - ML

CNCC - 2016 | 机器学习(原文链接) Machine Learning - ML,机器学习是人工智能AI的一个分支. 参考: :

(转)VC运行库MD /MDd /MT /MTd /ML /MLd

VC编译选项 - 多线程(/MT) - 多线程调试 (/MTd) - 多线程DLL (/MD) - 多线程调试DLL (/MDd) C 运行时库 库文件 - Single thread(static link) ML libc.lib - Debug single thread(static link) MLd libcd.lib - MultiThread(static link) MT libcmt.lib - Debug multiThread(static link) MTd libcm

windows下ML python lib的安装

万事开头难,作为第一篇博客,学不来深入浅出,妙趣横生,但求老老实实把事情说明白. 事情起源于kaggle竞赛者很慷慨地在github上开放了源码,kaggle非常贴心地将这些优异的解决方案和实现整理出来.对于小白级数据工作者,如我,是临摹思路,学习代码的绝好机会.为了享受这场盛宴,我在windows下搭建了python环境.由于ML包依赖有点复杂,本文赘述一二. 常见ML的python lib有:numpy, matplotlib, scipy, scikit-learn. 方式一: 常用的wi

斯坦福ML公开课笔记13B-因子分析模型及其EM求解

转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/37559995 本文是<斯坦福ML公开课笔记13A>的续篇.主要讲述针对混合高斯模型的问题所采取的简单解决方法,即对假设进行限制的简单方法,最后引出因子分析模型(Factor Analysis Model),包括因子分析模型的介绍.EM求解等. 斯坦福ML公开课笔记13B-因子分析模型及其EM求解,布布扣,bubuko.com