SVD分解 opencv实现

头文件

#ifndef DEBUG_LRN_SVD_H
#define DEBUG_LRN_SVD_H
#include <cmath>
#include <iostream>
#include <string>
#include <vector>
#include <opencv2/opencv.hpp>

using namespace std;
using namespace cv;

int test_SVD();

void print_matrix(const vector<vector<float>>& vec);

#endif //DEBUG_LRN_SVD_H

源文件

#include "svd.h"

void print_matrix(const vector<vector<float>>& vec){
    if(vec.empty()){
        return;
    }
    for ( auto row: vec){
        if(row.empty()){
            return;
        }
        for ( auto elem: row){
            cout << elem << ", ";
        }
        cout << endl;
    }
    cout << endl;
}

int test_SVD()
{
    std::vector<std::vector<float>> vec{ { 0.68f, 0.597f },
                                         { -0.211f, 0.823f },
                                         { 0.566f, -0.605f } };
    cout << "source matrix:" << endl;
    print_matrix(vec);

//    cout << "C++ implement SVD:" << endl;
//    vector<vector<float>> matD, matU, matVt;
//    if (svd(vec, matD, matU, matVt) != 0) {
//        cout << "C++ implement singular value decomposition fail!" << endl;
//        return -1;
//    }
//    cout << "singular values:" << endl;
//    print_matrix(matD);
//    cout << "left singular vectors:" << endl;
//    print_matrix(matU);
//    cout << "transposed matrix of right singular values:" << endl;
//    print_matrix(matVt);

    cout << "opencv singular value decomposition:" << endl;
    const auto rows = (int)vec.size();
    const auto cols = (int)vec[0].size();
    cv::Mat mat(rows, cols, CV_32FC1);
    for (int y = 0; y < rows; ++y) {
        for (int x = 0; x < cols; ++x) {
            mat.at<float>(y, x) = vec.at(y).at(x);
        }
    }

    cv::Mat matD, matU, matVt;
    cv::SVD::compute(mat, matD, matU, matVt, 4);
    cout << "singular values:" << endl;
    cout << matD << endl;
    cout << "left singular vectors:" << endl;
    cout << matU << endl;
    cout << "transposed matrix of right singular values:" << endl;
    cout << matVt << endl;
    cv::Mat matUt, matV;
    cv::transpose(matU, matUt);
    cv::transpose(matVt, matV);

    cout << "verify if the result is correct:" << endl;
    cv::Mat reconMatD = matUt * mat * matV;
    cout << reconMatD << endl;
    return 0;
}

原文地址:https://www.cnblogs.com/theodoric008/p/9506015.html

时间: 2024-10-11 15:57:15

SVD分解 opencv实现的相关文章

机器学习中的矩阵方法04:SVD 分解

机器学习中的矩阵方法04:SVD 分解 前面我们讲了 QR 分解有一些优良的特性,但是 QR 分解仅仅是对矩阵的行进行操作(左乘一个酉矩阵),可以得到列空间.这一小节的 SVD 分解则是将行与列同等看待,既左乘酉矩阵,又右乘酉矩阵,可以得出更有意思的信息.奇异值分解( SVD, Singular Value Decomposition ) 在计算矩阵的伪逆( pseudoinverse ),最小二乘法最优解,矩阵近似,确定矩阵的列向量空间,秩以及线性系统的解集空间都有应用. 1. SVD 的形式

矩阵的SVD分解

转自 http://blog.csdn.net/zhongkejingwang/article/details/43053513(实在受不了CSDN的广告) 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系.前段时间看了国外的一篇文章,叫A Singularly Valuable Decomposition The SVD of a Matrix,觉得分析的特别好,把矩阵和空间关系对应了起来.本文就参考了该文并结合矩阵的相关知识把SVD

机器学习Python实现 SVD 分解

这篇文章主要是结合机器学习实战将推荐算法和SVD进行相应的结合 任何一个矩阵都可以分解为SVD的形式 其实SVD意义就是利用特征空间的转换进行数据的映射,后面将专门介绍SVD的基础概念,先给出python,这里先给出一个简单的矩阵,表示用户和物品之间的关系 这里我自己有个疑惑? 对这样一个DATA = U(Z)Vt 这里的U和V真正的几何含义  :  书上的含义是U将物品映射到了新的特征空间, V的转置  将 用户映射到了新的特征空间 下面是代码实现,同时SVD还可以用于降维,降维的操作就是通过

SVD分解的理解

对称阵A 相应的,其对应的映射也分解为三个映射.现在假设有x向量,用A将其变换到A的列空间中,那么首先由U'先对x做变换: 由于正交阵" U的逆=U' ",对于两个空间来讲,新空间下的" 基E' 坐标 x' ,原空间E 坐标x "有如下关系 EX=E'X' ===> X=E'X' ===> X'=(E'的逆)x ==> x向量在新的"基"下的新坐标  (E的转置)X: 1.那么对于上式UTx先可以理解为:将x用A的所有特征向量表

SVD分解 求解超定方程组

做平差的时候,需要解误差方程组,而 有的书本上说解线性的误差方程组,并不需要初值. 在查阅了测量平差书本之后,书里描述,一般是需要参数的初始值的. 这就产生了疑问. 因为非线性方程的线性化之后,舍掉了二次项之后的值,会造成平差模型的弱化.因此在进行非线性方程的平差过程中,一般是对改正值进行一个迭代计算,使其精化. 而线性化之后的各参数的系数中,包含了其他的未知参数,因此在计算的过程之中,必须使用初值. 原本就是线性方程组的平差模型,也可以直接使用SVD分解来解误差方程组. 1.解最小二乘超定方程

Mathmatica SVD分解

mathmathica初识. Mathmatica 进行SVD分解,利用Help帮助获取SVD分解的函数SingularValueDecomposition[] 导入数据:G= Import["D:\\mathmatica\17.txt","Table"],此时以二维数组格式将数据储存之G数组中. 进行SVD分解: [U,S,Vt] = SingularValueDecomposition[G]; 以矩阵格式输出数组: MatirxForm[U]; MatrixFo

SVD分解

正奇异值:设$A=A_{m \times n}, rank(A)=p>0$,则$\lambda ({A^H}A)$与$\lambda (A{A^H})$恰有p个正特征根,${\lambda _1} > 0,{\lambda _2} > 0,...,{\lambda _p} > 0$ $\lambda ({A^H}A) = \{ {\lambda _1},{\lambda _2},...,{\lambda _p},0,...,0\} $  n-p个0 $\lambda (A{A^H}

(转)机器学习之SVD分解

一.SVD奇异值分解的定义 假设是一个的矩阵,如果存在一个分解: 其中为的酉矩阵,为的半正定对角矩阵,为的共轭转置矩阵,且为的酉矩阵.这样的分解称为的奇异值分解,对角线上的元素称为奇异值,称为左奇异矩阵,称为右奇异矩阵. 二.SVD奇异值分解与特征值分解的关系 特征值分解与SVD奇异值分解的目的都是提取一个矩阵最重要的特征.然而,特征值分解只适用于方阵,而SVD奇异值分解适用于任意的矩阵,不一定是方阵. 这里,和是方阵,和为单位矩阵,为的特征向量,为的特征向量.和的特征值为的奇异值的平方. 三.

SVD++分解

在现实情况下,用户的显式反馈严重不足,但一般拥有大量隐式反馈信息.所以在偏置svd基础上增加了用户的隐式反馈信息,该方法融合了用户的显式和隐式信息. 1.预测评分公式为   其中,有全局平均分,user的偏置信息,item的偏置信息,Ni为该用户评价过的所有item集合,从隐式反馈出发,作为用户偏好的补充,ys为隐式偏好. 2.损失函数为平方误差+L2正则项,其中是真实评分. 3.利用SGD训练更新,其中. 4.程序,(数据movielens 100k,https://github.com/ji