Coursera机器学习week7 编程作业

gaussianKernel.m

sim = exp(-sum((x1-x2).^2)/(sigma.^2*2));

dataset3Params.m

steps = [0.01,0.03,0.1,0.3,1,3,10,30];
minError = Inf;
minC = Inf;
minSigma = Inf;

for i = 1:length(steps)
	for j = 1:length(steps)
		currC = steps(i);
		currSigma = steps(j);
		model = svmTrain(X, y, currC, @(x1, x2) gaussianKernel(x1, x2, currSigma));
		predictions = svmPredict(model, Xval);
		error = mean(double(predictions ~= yval));
		if(error < minError)
			minError = error;
			minC = currC;
			minSigma = currSigma;
		end
	end
end

C = minC;
sigma = minSigma;

processEmail.m

for i = 1:length(vocabList)
        if(strcmp(vocabList(i), str))
            word_indices = [word_indices; i]
            break;
        end
    end

emailFeatures.m

for i = 1:length(word_indices)
    x(word_indices(i)) = 1
end

  

原文地址:https://www.cnblogs.com/xingkongyihao/p/8436942.html

时间: 2024-10-08 20:42:12

Coursera机器学习week7 编程作业的相关文章

Coursera机器学习week6 编程作业

linearRegCostFunction.m J = 1/(2*m)*sum((X*theta-y).^2)+lambda/(2*m)*(sum(theta.^2)-theta(1).^2); grad = 1/m*X'*(X*theta-y)+lambda/m*theta; grad(1) = grad(1) -lambda/m*theta(1) learningCurve.m for i = 1:m theta = trainLinearReg(X(1:i,:), y(1:i,:), la

Coursera机器学习week9 编程作业

estimateGaussian.m mu = 1/m * sum(X); sigma2 = 1/m * sum((X - repmat(mu, m, 1)).^2); selectThreshold.m predictions = (pval < epsilon); fp = sum((predictions == 1) & (yval == 0)); fn = sum((predictions == 0) & (yval == 1)); tp = sum((predictions

Stanford coursera Andrew Ng 机器学习课程编程作业(Exercise 2)及总结

Exercise 1:Linear Regression---实现一个线性回归 关于如何实现一个线性回归,请参考:http://www.cnblogs.com/hapjin/p/6079012.html Exercise 2:Logistic Regression---实现一个逻辑回归 问题描述:用逻辑回归根据学生的考试成绩来判断该学生是否可以入学. 这里的训练数据(training instance)是学生的两次考试成绩,以及TA是否能够入学的决定(y=0表示成绩不合格,不予录取:y=1表示录

Coursera机器学习week7 笔记

Support Vector Machines(支持向量机) Optimization objective 与逻辑回归和神经网络相比,支持向量机,或者简称 SVM.在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式. 这是逻辑回归里的,右边是S型激励函数,我们用z表示θTx 但y = 1 和 y = 0 时的函数图如下: 在逻辑回归中使用SVM如下: 然后最小化这个目标函数,得到 SVM 学习到的参数 C. Large Margin Intuition 人们有时将支持向量机看作是大间距分

Coursera公开课-Machine_learing:编程作业2

第三周编程作业:Logistic Regression 代码包在gitlab上:https://gitlab.com/luntai/Machine_Learning

Coursera公开课-Machine_learing:编程作业8(2016-10-06 20:49)

Anomaly Detection and Recommender Systems 本周编程作业分为两部分:异常检测和推荐系统. 异常检测:本质就是使用样本的到特种值的gaussian分布,来预估正确的特征值的范围.对于一些特殊情况可以使用,多元高斯分布. 要注意该方法与监督学习的不同的适用性特征. 推荐系统:本例程中使用了,预测用户对不同类型的电影评分来给用户推荐电影. 代码在gitlab.

coursera机器学习

上周出差回来,开始找了一篇论文看<ScSPM>,这里有源代码,自己希望能认真看懂:毕竟这篇文章包含了dense sift特征提取+Spare coding+linear svm知识很全面,希望能看懂代码.这个过程却发现自己缺少了很多东西,他自己的sift提取方法,Sc,svm都是自己实现的:感觉看懂好难.然后周六开始实验室有“学术交流”,师兄师姐交流他们整个小论文的过程,针对梯度下降这些基本的方法,我们都没有认真的理解.发现图像和机器学习自己都没有认真的系统的学习:自己在博客上零零散散的看了很

ufldl学习笔记与编程作业:Softmax Regression(vectorization加速)

ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践. 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl. 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊. 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节是对ufldl学习笔记与编程作业:Softmax Regression(softmax回归)版本的改进. 哈哈,把向量化的写法给写出来了,尼玛好快啊.只需要2分钟,2

ufldl学习笔记与编程作业:Logistic Regression(逻辑回归)

ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践. 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl. 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊. 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节学习链接:http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/ 有了线性回归的基础再来学