Machine Learning——octave矩阵操作(2)——DAY3

矩阵的数学操作:

Assumed: a为一个矩阵,m是一个向量

Log(a)——求每一个元素的对数

Exp(a)——以e为底的指数

1./a——求每个元素的导师

[a,b]=max(m)——m是一个向量,a为m当中最大的元素,b为a在m中的排列序号(已按从小到大排好)

m<3——比如m=[1 6 7],会得到[1 0 0](应该能懂)

Find(m>3)——比如m=[1 6 7],会得到[2 3],即大于3的元素的下标(应该能懂)

Magic(3)——产生一个3*3的矩阵,每行每列加起来相等

[c,d]=find(a>3)——找出所有a矩阵中大于3的元素,c返回行,d返回列

Sum(m)——求和

Prod(m)——求乘积

Floor(m)——向下取整

Ceil(m)——向上取整

Max(a,[],1)——取每一列的最大值

Max(a,[],2)——取每一行的最大值

Sum(a)或sum(a,1)——对每一列求和

Sum(a,2)——对每一行求和

Sum(sum(a.*eye(3)))——求a 的对角线元素的和(a为3*3的矩阵)

Max(a(:))——求a矩阵中最大的元素

Flipud(a)——将矩阵上下翻转

Sum(sum(a.*flipud(eye(3))))——求a副对角线元素之和(a为3*3的矩阵)

绘图:

Plot(x,y)——x为因变量,y是自变量

Hold on

Plot(x1,y1,’r’)——将图画在旧图之上,颜色为红

Xlabel(‘ ‘)——给自变量取名称

Ylabel(‘ ‘)——给因变量取名称

Legend(‘ ‘,’ ‘)——图例

MATLAB保存图片的方法:

1、可以用print命令保存:
print(1,‘-djpeg‘,‘picname.jpeg‘)
注:第一个参数表示图形窗口的句柄号;第二个参数,在引号内表示保存为jpeg格式,第三个参数为文件名。
2、可以用saveas命令保存:
saveas(gcf,‘picname‘,‘jpg‘)
注:第一个参数是matlab获取图形句柄号的函数名,第二个参数,在引号内是希望保存的文件名,这里不要写后缀,第三个参数是文件类型。

3.Figure(1);plot();——为图形编号

4.matlab中subplot(m,n,p)可以在一个figure中画m×n个子图,p可以指定子图的位置,一般情况下p为单个数字,p为向量时可以合并多个子图为一个子图。

  1. clear
  2. clc
  3. x=-4*pi+eps:0.01:4*pi;
  4. y1=sin(x);
  5. y2=cos(x);
  6. y3=tan(x);
  7. figure
  8. subplot(2,2,1);plot(x,y1);title(‘sin(x)‘)
  9. subplot(2,2,2);plot(x,y2);title(‘cos(x)‘)
  10. subplot(2,2,[3,4]);plot(x,y3);title(‘tan(x)‘) %将第二行的两个合并为一个
  11. figure
  12. subplot(2,2,[1 2]);plot(x,y1);title(‘sin(x)‘) %将第一行的两个合并为一个
  13. subplot(2,2,3);plot(x,y2);title(‘cos(x)‘)
  14. subplot(2,2,4);plot(x,y3);title(‘tan(x)‘)
  15. figure
  16. subplot(2,2,[1 3]);plot(x,y1);title(‘sin(x)‘) %将第一列的两个合并为一个
  17. subplot(2,2,2);plot(x,y2);title(‘cos(x)‘)
  18. subplot(2,2,4);plot(x,y3);title(‘tan(x)‘)
  19. figure
  20. subplot(2,2,1);plot(x,y1);title(‘sin(x)‘)
  21. subplot(2,2,3);plot(x,y2);title(‘cos(x)‘)
  22. subplot(2,2,[2 4]);plot(x,y3);title(‘tan(x)‘)  %将第二列的两个合并为一个
  23. 5.axis([1 2 3 4])——设置x轴为(1,2),y轴范围设置成(3 ,4)

5.axis([1 2 3 4])——设置x轴为(1,2),y轴范围设置成(3 ,4)

6.Imagesc(a)——可视化矩阵

7.Imagesc(a),colorbar,clolormap gray;——黑白的(额,不好描述,如下)

时间: 2024-10-10 07:35:29

Machine Learning——octave矩阵操作(2)——DAY3的相关文章

Machine Learning——octave的操作(1)——DAY2

1.PS1('>>'); --不显示版本 2.输出: a=pi; format long format short(4位) disp(sprintf('%0.2f',a)) 3.矩阵的输入: A=[1 2;3 4;5 6] A(1,2)--取出第一行第二列的值 A(1,:)--取出第一行所有值 A(:,2)--取出第二列所有值 A([1 3],:)--取出第一行和第三行的所有元素 A(:,2)=[1:65:3231]--把第二列的元素改变 A=[A,[1;2;646]]--在原矩阵的基础上增加

Machine Learning - Octave环境的安装

最近开始看Coursera上面的机器学习课程,上面提到了一个软件--Octave,于是乎我转了下面这篇博客. 不知道是具体什么原因,本人在下载 octave-4.2.1-w64-installer.exe 时,速度奇慢无比,于是下载了 octave-4.2.1-w64.zip ,解压后按照http://wiki.octave.org/Octave_for_Microsoft_Windows里面所说,打开了文件夹中的.bat文件/.vbs文件,然后直接就可以用了. 下载页面:https://ftp

Machine Learning - V. Octave Tutorial (Week 2)

机器学习Machine Learning - Andrew NG courses学习笔记 If you want to build a large scale deployment of a learning algorithm, what people will often do is prototype and the language is Octave.Which is a great prototyping language.So you can sort of get your le

Andrew Ng Machine Learning 专题【Linear Regression】

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记. 力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 3: Logistic Regression & Regularization 笔记:http://blog.csdn.net/ironyoung/ar

[Machine Learning] 国外程序员整理的机器学习资源大全

本文汇编了一些机器学习领域的框架.库以及软件(按编程语言排序). 1. C++ 1.1 计算机视觉 CCV —基于C语言/提供缓存/核心的机器视觉库,新颖的机器视觉库 OpenCV—它提供C++, C, Python, Java 以及 MATLAB接口,并支持Windows, Linux, Android and Mac OS操作系统. 1.2 机器学习 MLPack DLib ecogg shark 2. Closure Closure Toolbox—Clojure语言库与工具的分类目录 3

Neural Networks Learning----- Stanford Machine Learning(by Andrew NG)Course Notes

本栏目内容来自Andrew NG老师的公开课:https://class.coursera.org/ml/class/index 一般而言, 人工神经网络与经典计算方法相比并非优越, 只有当常规方法解决不了或效果不佳时人工神经网络方法才能显示出其优越性.尤其对问题的机理不甚了解或不能用数学模型表示的系统,如故障诊断.特征提取和预测等问题,人工神经网络往往是最有利的工具.另一方面, 人工神经网络对处理大量原始数据而不能用规则或公式描述的问题, 表现出极大的灵活性和自适应性. 神经网络模型解决问题的

Coursera《machine learning》--(14)数据降维

本笔记为Coursera在线课程<Machine Learning>中的数据降维章节的笔记. 十四.降维 (Dimensionality Reduction) 14.1 动机一:数据压缩 本小节主要介绍第二种无监督学习方法:dimensionality reduction,从而实现数据的压缩,这样不仅可以减少数据所占磁盘空间,还可以提高程序的运行速度.如下图所示的例子,假设有一个具有很多维特征的数据集(虽然下图只画出2个特征),可以看到x1以cm为单位,x2以inches为单位,它们都是测量长

【machine learning】KNN算法

适逢学习机器学习基础知识,就将书中内容读读记记,本博文代码参考书本Machine Learning in Action(<机器学习实战>). 一.概述 kNN算法又称为k近邻分类(k-nearest neighbor classification)算法. kNN算法则是从训练集中找到和新数据最接近的k条记录,然后根据他们的主要分类来决定新数据的类别.该算法涉及3个主要因素:训练集.距离或相似的衡量.k的大小. 二.算法要点 1.指导思想 kNN算法的指导思想是"近朱者赤,近墨者黑&q

machine learning(13) --Regularization:Regularized linear regression

machine learning(13) --Regularization:Regularized linear regression Gradient descent without regularization                    with regularization                     θ0与原来是的没有regularization的一样 θ1-n和原来相比会稍微变小(1-αλ⁄m)<1 Normal equation without regular