machine-learning课程学习总结octave

quick referencehttp://10.236.6.14/enacit1.epfl.ch/octave_doc/refcard/refcard-a4.pdf

1.算术运算:

 a+b, a-b, a*b, a/b, a^b

   逻辑运算:

a==b, a~=b(不等于), a&&b, a||b, xor(a,b)

2.赋值语句:

a=3;

a=‘hi‘;

a= 1>=3;

3.输出显示:

a=pi

disp(a)

disp(sprintf(‘2 decimals: %0.2f‘, a))

disp(sprintf(‘6 decimals: %0.6f‘, a))

format long

format short

4.向量和矩阵:

A=[1 2;3 4;5 6]

A=[1 2 3]

A=[1:0.1:2]  %1-2以0.1为单位构造行向量

A=1:6  %1-6的行向量

A=ones(3,4)  %3行4列每个元素为1的矩阵

A=zeros(1,3)  %1行3列每个元素为0的矩阵

A=randn(1,3)  %正态分布

A=7+sqrt(10)*(randn(1,10000))  %均值为7,方差为根号10

hist(A)  %以10bins做柱状图

hist(A,50)  %以50bins做柱状图

a=eye(5)  %阶为5的单位矩阵

 5.数据处理:

load abc.dat  %读文件

who  %列出工作空间内的变量

whos  %列出工作空间内变量的详细信息

clear abc  %清空文件

v=abc(1:10)  %读文件前10个数据

save file.mat v;  %把v保存到文件中

save file.txt v -ascii;  %把v以ascii码保存到文件中

size(A)  %返回[行数 列数]向量的两个值

size(A,1)  %行数

size(A,2)  %列数

length(A)  %最高维长度

A(:)  %A所有元素排成一个列向量

A(3,2)  %得到3行2列的元素

A(2,:)  %得到第2行的行向量

A(2,:)=[2 3 4]  %给第2行元素赋值

A=[A,[1;2;3]]  %给A左边增加一列向量

A([1 3],:)  %得到A的1-3行的所有元素

C=[A B]  %拼接矩阵

C=[A,B]

C=[A;B]

6.数据运算:

设A=3*2矩阵,B=3*2矩阵,C=2*1矩阵

A*C

A.*B

A.^2

1./A

log(A)

exp(A)

abs(A)

-A

A+1

A‘

max(A)  %返回一个行向量,每个值分别为每列最大的,若A为行向量,只返回最大值

prod(A)  %同上,只是乘积

sum(A)  %同上,只是和

sum(A,1)  %同上

sum(A,2)  %同上,返回列向量

A<3  %返回A同型矩阵,<3的值为0,反之为1

find(A<3)  %返回小于3的元素位置,为一个列向量

[r,c]=find(A<3)  %ri,ci为符合元素坐标

flipud(A)  %行反转

pinv(A)  %A的逆矩阵

7.画图

 t=[0:0.01:0.98]

 y1=sin(2*pi*t)

plot(t,y1)  %绘制

hold on

y2=cos(2*pi*t)

plot(t,y2,‘r‘)

xlabel(‘time‘)

ylabel(‘value‘)

legend(‘sin‘,‘cos‘)  %图例

title(‘my plot‘)

print -dpng ‘myPlot.png‘  %保存为图片文件

close  %关闭当前的图

figure(1)  %创建一个图

clf  %清空图当前内容

subplot(1,2,2)  %图切为1*2格,绘制第2格

axis([0.5 1 -1 1])  %坐标轴改为x属于[0.5,1],y属于[-1,1]

imagesc(magic(15)),colorbar,colormap gray;

8.循环条件语句

for i=1:10,

v(i)=2^i;

end

------------------

while i<=5,

v(i)=100;

i=i+1;

end

-------------------

if

elseif

else

end

9.函数:

function y=fun(x)

y=x+2;

function [y1,y2]=fun2(x)

y1=x*x;

y2=x+x;

调用时cd到函数目录,然后直接调用

ans=fun(args)

[a,b]=fun2(args)

时间: 2024-10-13 06:19:30

machine-learning课程学习总结octave的相关文章

Andrew Ng 的 Machine Learning 课程学习 (week4) Multi-class Classification and Neural Networks

这学期一直在跟进 Coursera上的 Machina Learning 公开课, 老师Andrew Ng是coursera的创始人之一,Machine Learning方面的大牛.这门课程对想要了解和初步掌握机器学习的人来说是不二的选择.这门课程涵盖了机器学习的一些基本概念和方法,同时这门课程的编程作业对于掌握这些概念和方法起到了巨大的作用. 课程地址 https://www.coursera.org/learn/machine-learning 笔记主要是简要记录下课程内容,以及MATLAB

Andrew Ng 的 Machine Learning 课程学习 (week5) Neural Network Learning

这学期一直在跟进 Coursera上的 Machina Learning 公开课, 老师Andrew Ng是coursera的创始人之一,Machine Learning方面的大牛.这门课程对想要了解和初步掌握机器学习的人来说是不二的选择.这门课程涵盖了机器学习的一些基本概念和方法,同时这门课程的编程作业对于掌握这些概念和方法起到了巨大的作用. 课程地址 https://www.coursera.org/learn/machine-learning 笔记主要是简要记录下课程内容,以及MATLAB

机器学习(Machine Learning)&amp;深度学习(Deep Learning)资料

机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <Deep Learning in Neural Networks: An Overview> 介绍:这是瑞士人工智能实验室Jurgen Schmidhuber写的最新版本

Coursera课程《Machine Learning》学习笔记(week1)

这是Coursera上比较火的一门机器学习课程,主讲教师为Andrew Ng.在自己看神经网络的过程中也的确发现自己有基础不牢.一些基本概念没搞清楚的问题,因此想借这门课程来个查漏补缺.目前的计划是先看到神经网络结束,后面的就不一定看了. 当然,看的过程中还是要做笔记做作业的,否则看了也是走马观花.此笔记只针对我个人,因此不会把已经会了的内容复述一遍,相当于是写给自己的一份笔记吧.如果有兴趣,可以移步<Machine Learning>仔细学习. 接下来是第一周的一些我认为需要格外注意的问题.

机器学习(Machine Learning)&amp;深入学习(Deep Learning)资料

<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林.Deep Learning. <Deep Learning in Neural Networks: An Overview> 介绍:这是瑞士人工智能实验室 Jurgen Schmidhuber 写的最新版本<神经网络与深度学习综述>本综述的特点是以时间排序,从 1940 年开始讲起,到

Kaggle Machine Learning 教程学习(五)

四.算法选择 这一步骤让我很兴奋,终于谈到算法了,虽然没代码.没公式.因为教程君表示并不想过深的去探讨算法细节,于是着重于从算法的应用场景.算法的缺点.如何选择算法来纵向展开. 我们的训练模型一般分为监督学习.无监督学习以及强化学习三种.教程中只提到了前两种,而训练算法又分为回归.分类以及聚类.其中回归与分类属于监督学习分,聚类属于无监督学习. 教程中提到的适用于监督学习下的拟合算法: 线性回归(Linear regression). 套索回归(Lasso regression). 岭回归(Ri

机器学习(Machine Learning)&amp;amp;深度学习(Deep Learning)资料

机器学习(Machine Learning)&深度学习(Deep Learning)资料 機器學習.深度學習方面不錯的資料,轉載. 原作:https://github.com/ty4z2008/Qix/blob/master/dl.md 原作作者會不斷更新.本文更新至2014-12-21 <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍非常全面.从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep L

Introduction ----- Stanford Machine Learning(by Andrew NG)Course Notes

最近学习了coursera上面Andrew NG的Machine learning课程,课程地址为:https://www.coursera.org/course/ml 在Introduction部分NG较为系统的概括了Machine learning的一些基本概念,也让我接触了一些新的名词,这些名词在后续课程中会频繁出现: Machine Learning Supervised Learning Unsupervised Learning Regression Problem Classifi

Machine Learning笔记(二) 单变量线性回归

Machine Learning笔记(二) 单变量线性回归 注:本文内容资源来自 Andrew Ng 在 Coursera上的 Machine Learning 课程,在此向 Andrew Ng 致敬. 一.模型表示(Model Representation) 对于笔记(一)中的房价问题,如何进行求解,这将会是本文中讨论的重点. 现在假设有了更多的房屋价格数据,需要用一条直线来近似房屋价格的走势,如下图所示: 回顾笔记(一)中所讲 监督学习.非监督学习.回归 和 分类 的概念: 1. 监督学习(