Coursera机器学习week6 编程作业

linearRegCostFunction.m

J = 1/(2*m)*sum((X*theta-y).^2)+lambda/(2*m)*(sum(theta.^2)-theta(1).^2);

grad = 1/m*X‘*(X*theta-y)+lambda/m*theta;
grad(1) = grad(1) -lambda/m*theta(1)

learningCurve.m

for i = 1:m
	theta = trainLinearReg(X(1:i,:), y(1:i,:), lambda);
	error_train(i) = linearRegCostFunction(X(1:i,:), y(1:i,:), theta, 0);
	error_val(i) = linearRegCostFunction(Xval, yval, theta, 0);
end

validationCurve.m

for i = 1 : length(lambda_vec)
	lambda = lambda_vec(i);
	theta = trainLinearReg(X, y, lambda);
	error_train(i) = linearRegCostFunction(X, y, theta, 0);
	error_val(i) = linearRegCostFunction(Xval, yval, theta, 0)
end

  

原文地址:https://www.cnblogs.com/xingkongyihao/p/8436093.html

时间: 2024-10-14 01:23:50

Coursera机器学习week6 编程作业的相关文章

Coursera机器学习week7 编程作业

gaussianKernel.m sim = exp(-sum((x1-x2).^2)/(sigma.^2*2)); dataset3Params.m steps = [0.01,0.03,0.1,0.3,1,3,10,30]; minError = Inf; minC = Inf; minSigma = Inf; for i = 1:length(steps) for j = 1:length(steps) currC = steps(i); currSigma = steps(j); mod

Coursera机器学习week9 编程作业

estimateGaussian.m mu = 1/m * sum(X); sigma2 = 1/m * sum((X - repmat(mu, m, 1)).^2); selectThreshold.m predictions = (pval < epsilon); fp = sum((predictions == 1) & (yval == 0)); fn = sum((predictions == 0) & (yval == 1)); tp = sum((predictions

Stanford coursera Andrew Ng 机器学习课程编程作业(Exercise 2)及总结

Exercise 1:Linear Regression---实现一个线性回归 关于如何实现一个线性回归,请参考:http://www.cnblogs.com/hapjin/p/6079012.html Exercise 2:Logistic Regression---实现一个逻辑回归 问题描述:用逻辑回归根据学生的考试成绩来判断该学生是否可以入学. 这里的训练数据(training instance)是学生的两次考试成绩,以及TA是否能够入学的决定(y=0表示成绩不合格,不予录取:y=1表示录

Coursera公开课-Machine_learing:编程作业2

第三周编程作业:Logistic Regression 代码包在gitlab上:https://gitlab.com/luntai/Machine_Learning

Coursera公开课-Machine_learing:编程作业8(2016-10-06 20:49)

Anomaly Detection and Recommender Systems 本周编程作业分为两部分:异常检测和推荐系统. 异常检测:本质就是使用样本的到特种值的gaussian分布,来预估正确的特征值的范围.对于一些特殊情况可以使用,多元高斯分布. 要注意该方法与监督学习的不同的适用性特征. 推荐系统:本例程中使用了,预测用户对不同类型的电影评分来给用户推荐电影. 代码在gitlab.

coursera机器学习

上周出差回来,开始找了一篇论文看<ScSPM>,这里有源代码,自己希望能认真看懂:毕竟这篇文章包含了dense sift特征提取+Spare coding+linear svm知识很全面,希望能看懂代码.这个过程却发现自己缺少了很多东西,他自己的sift提取方法,Sc,svm都是自己实现的:感觉看懂好难.然后周六开始实验室有“学术交流”,师兄师姐交流他们整个小论文的过程,针对梯度下降这些基本的方法,我们都没有认真的理解.发现图像和机器学习自己都没有认真的系统的学习:自己在博客上零零散散的看了很

ufldl学习笔记与编程作业:Softmax Regression(vectorization加速)

ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践. 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl. 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊. 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节是对ufldl学习笔记与编程作业:Softmax Regression(softmax回归)版本的改进. 哈哈,把向量化的写法给写出来了,尼玛好快啊.只需要2分钟,2

ufldl学习笔记与编程作业:Logistic Regression(逻辑回归)

ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践. 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl. 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊. 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节学习链接:http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/ 有了线性回归的基础再来学

ufldl学习笔记和编程作业:Softmax Regression(softmax回报)

ufldl学习笔记与编程作业:Softmax Regression(softmax回归) ufldl出了新教程.感觉比之前的好,从基础讲起.系统清晰,又有编程实践. 在deep learning高质量群里面听一些前辈说,不必深究其它机器学习的算法,能够直接来学dl. 于是近期就開始搞这个了.教程加上matlab编程,就是完美啊. 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节学习链接:http://ufldl.stanford.edu/tutoria