聊一聊粗糙集(五)

本节我们将继续介绍粗糙集有关的概念。



上节我们介绍了知识粒度的度量,本节将介绍知识粒度的矩阵表示形式。

我们先简单介绍矩阵的相关概念。

矩阵

先看矩阵的和,差。

矩阵的和:
若\(A=(a_{ij})_{m \times n}\),\(B=(b_{ij})_{m \times n}\)是两个\(m \times n\)的矩阵,则两个矩阵的和\(C=(c_{ij})_{m \times n}\)为
\[
C = A+B \quad \Longrightarrow \quad c_{ij}=a_{ij}+b_{ij}
\]

\[
=\begin{bmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \ a_{21} & a_{22} & \cdots & a_{2n} \ \vdots & \vdots & \ddots & \vdots \ a_{m1} & a_{m2} & \cdots & a_{mn} \\
\end{bmatrix} +
\begin{bmatrix}
b_{11} & b_{12} & \cdots & b_{1n} \ b_{21} & b_{22} & \cdots & b_{2n} \ \vdots & \vdots & \ddots & \vdots \ b_{m1} & b_{m2} & \cdots & b_{mn} \ \end{bmatrix}
\]

\[
=\begin{bmatrix}
a_{11}+b_{11} & a_{12}+b_{12} & \cdots & a_{1n}+b_{1n} \ a_{21}+b_{21} & a_{22}+b_{22} & \cdots & a_{2n}+b_{2n} \ \vdots & \vdots & \ddots & \vdots \ a_{m1}+b_{m1} & a_{m2}+b_{m2} & \cdots & a_{mn}+b_{mn} \\end{bmatrix}
\]

类似的,两个矩阵的差:
\[
C = A-B \quad \Longrightarrow \quad c_{ij}=a_{ij}-b_{ij}
\]

\[
= \begin{bmatrix}
a_{11}-b_{11} & a_{12}-b_{12} & \cdots & a_{1n}-b_{1n} \ a_{21}-b_{21} & a_{22}-b_{22} & \cdots & a_{2n}-b_{2n} \ \vdots & \vdots & \ddots & \vdots \ a_{m1}-b_{m1} & a_{m2}-b_{m2} & \cdots & a_{mn}-b_{mn} \ \end{bmatrix}
\]
矩阵的转置:
\[
A= \begin{bmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \ a_{21} & a_{22} & \cdots & a_{2n} \ \vdots & \vdots & \ddots & \vdots \ a_{n1} & a_{n2} & \cdots & a_{nn} \\end{bmatrix}
\]

则矩阵\(A\)的转置矩阵\(A^T\)为:
\[
A^T= \begin{bmatrix}
a_{11} & a_{21} & \cdots & a_{n1} \ a_{12} & a_{22} & \cdots & a_{n2} \ \vdots & \vdots & \ddots & \vdots \ a_{1n} & a_{2n} & \cdots & a_{nn} \\end{bmatrix}
\]
最后来看矩阵的乘积:
若\(A=(a_{ij})_{m \times n}\),\(B=(b_{ij})_{n \times p}\)是两个矩阵
则两个矩阵的乘积\(A \times B =C=(c_{ij})_{m \times p}\) 为:
\[
C = A \times B \quad \Longrightarrow \quad (c_{ij})_{m \times p}=(\sum_{k=1}^{n} a_{ik}\cdot b_{kj})_{m \times p}
\]

\[
= \begin{bmatrix}
\sum_{k=1}^{n} a_{1k}b_{k1} & \sum_{k=1}^{n}a_{1k}b_{k2} & \cdots & \sum_{k=1}^{n} a_{1k}b_{kp} \ \sum_{k=1}^{n} a_{2k}b_{k1} & \sum_{k=1}^{n}a_{2k}b_{k2} & \cdots & \sum_{k=1}^{n} a_{2k}b_{kp} \ \vdots & \vdots & \ddots & \vdots \ \sum_{k=1}^{n} a_{mk}b_{k1} & \sum_{k=1}^{n}a_{mk}b_{k2} & \cdots & \sum_{k=1}^{n} a_{mk}b_{kp} \ \end{bmatrix}
\]

知识粒度的矩阵表现形式

我们依旧使用该表

\(U\) \(a\) \(b\) \(c\) \(e\) \(f\) \(d\)
1 0 1 1 1 0 1
2 1 1 0 1 0 1
3 1 0 0 0 1 0
4 1 1 0 1 0 1
5 1 0 0 0 1 0
6 0 1 1 1 1 0
7 0 1 1 1 1 0
8 1 0 0 1 0 1
9 1 0 0 1 0 0

等价关系矩阵的定义如下:
设\(S=(U,A=C \bigcup D,V,f)\)是一个决策信息系统,论域\(U=\{u_{1},u_{2},...,u_{n} \}\),\(n\)是论域内元素个数,\(U/C=\{X_{1},X_{2},...,X_{m}\}\),\(R_{C}\)是论域\(U\)的等价关系。则等价关系矩阵\(U_{U}^{R_{C}} = (m_{ij})_{n \times n}\)定义如下:
\[
m_{ij}
=\begin{cases}
1 & (u_{i},u_{j}) \in R_{C} \0 & (u_{i},u_{j}) \notin R_{C}
\end{cases}
\]

其中,\({1 \leq i,j \leq n}\)。

基于矩阵的知识粒度如下:
设\(S=(U,A=C \bigcup D,V,f)\)是一个决策信息系统,\(U_{U}^{R_{C}} = (m_{ij})_{n \times n}\)是等价关系矩阵,条件属性\(C\)基于矩阵的知识粒度定义如下:
\[
GP_{U}(C)=\frac{sum\left(M_{U}^{R_{C}}\right)}{|U|^{2}}=\overline{M_{U}^{R_{C}}}
\]
其中,\(sum\left(M_{U}^{R_{C}}\right)\)是等价矩阵内\(1\)的个数总和,\(\overline{M_{U}^{R_{C}}}\)是矩阵内所有元素的均值。

依旧上表,我们可以计算\(GP_{U}(C)\):
\[
GP_{U}(C)=\overline{M_{U}^{R_{C}}}=\frac{1}{81}\times\operatorname{sum}(\left[\begin{array}{ccccccccc}
{1} & {0} & {0} & {0} & {0} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {1} & {1} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {1} & {1} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {0} & {0} & {1} & {1} \{0} & {0} & {0} & {0} & {0} & {0} & {0} & {1} & {1}
\end{array}\right])=\frac{17}{81}
\]

这和我们在上节计算得到的结果是一致的。

类似的,相对知识粒度的定义如下:
若\(S=(U,A=C \bigcup D,V,f)\)是一个决策信息系统,\(U_{U}^{R_{C}}\),\(U_{U}^{R_{C \bigcup D}}\)是等价关系矩阵,则决策属性\(D\)关于条件属性\(C\)基于矩阵的相对知识粒度定义如下:
\[
G P_{U}(D\mid C)=\overline{U_{U}^{R_{C}}}-\overline{U_{U}^{R_{C \bigcup D}}}
\]

根据上表,我们可以计算\(GP_{U}(D \mid C)\):
\[
GP_{U}(D \mid C)=\overline{U_{U}^{R_{C}}}-\overline{U_{U}^{R_{C \bigcup D}}}
\]

\[
=\frac{1}{81}\times\operatorname{sum}(\left[\begin{array}{ccccccccc}
{1} & {0} & {0} & {0} & {0} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {1} & {1} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {1} & {1} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {0} & {0} & {1} & {1} \{0} & {0} & {0} & {0} & {0} & {0} & {0} & {1} & {1}
\end{array}\right] - \left[\begin{array}{ccccccccc}
{1} & {0} & {0} & {0} & {0} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} & {0} \{0} & {0} & {1} & {0} & {1} & {0} & {0} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {1} & {1} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {1} & {1} & {0} & {0} \{0} & {0} & {0} & {0} & {0} & {0} & {0} & {1} & {0} \{0} & {0} & {0} & {0} & {0} & {0} & {0} & {0} & {1}
\end{array}\right]) =\frac{2}{81}
\]
这与我们之前计算的结果是一致的。

类似的,基于矩阵的内外部属性重要度的定义如下:
内部属性重要度:
若\(S=(U,A=C \bigcup D,V,f)\)是一个决策信息系统,\(B\subseteq C\),且\(U_{U}^{R_{B}}\),\(U_{U}^{R_{B-\{a\} }}\),\(U_{U}^{R_{B \bigcup D}}\),\(U_{U}^{R_{(B -\{a\}) \bigcup D}}\)都是等价关系矩阵,\(\forall a \in B\),则属性\(a\)关于条件属性\(B\)相对于决策属性集\(D\)的基于矩阵的相对知识粒度定义如下:
\[
\operatorname{Sig}_{U}^{inner }(a, B, D)=GP_{U}(D \mid B-\{a\})-GP_{U}(D \mid B)
\]

\[
=\{ GP_{U}(B-\{a\})-GP_{U}((B-\{a\}) \bigcup D) \}-\{GP_{U}(B)-GP_{U}(B \bigcup D) \}
\]

\[
=\overline{M_{U}^{R_{B-\{a \}}}}-\overline{M_{U}^{R_{(B -\{a\}) \bigcup D}}}-\overline{M_{U}^{R_{B}}}+\overline{M_{U}^{R_{B \bigcup D}}}
\]

外部属性重要度:
若\(S=(U,A=C \bigcup D,V,f)\)是一个决策信息系统,\(B\subseteq C\),且\(U_{U}^{R_{B}}\),\(U_{U}^{R_{B \bigcup D}}\),\(U_{U}^{R_{B \bigcup \{a\} }}\),\(U_{U}^{R_{(B \bigcup \{a\}) \bigcup D}}\)都是等价关系矩阵,\(\forall a \in (C-B)\),则属性\(a\)关于条件属性\(B\)相对于决策属性集\(D\)的基于矩阵的相对知识粒度定义如下:
\[
\operatorname{Sig}_{U}^{outer }(a, B, D)=GP_{U}(D \mid B)-GP_{U}(D \mid B \bigcup \{a\})
\]

\[
=\{ GP_{U}(B)-GP_{U}(B\bigcup D)\} - \{ GP_{U}(B \bigcup \{a\})-GP_{U}((B\bigcup \{a\}) \bigcup D) \}
\]

\[
=\overline{M_{U}^{R_{B}}}-\overline{M_{U}^{R_{B \bigcup D}}}-\overline{M_{U}^{R_{B \bigcup \{a \} }}}+\overline{M_{U}^{R_{(B \bigcup \{a\}) \bigcup D}}}
\]

参考上节的案例,如果使用矩阵表示的话,结果是一样的,但是基于矩阵的方式在面对大规模数据集是可能不是好的选择。



本文参考了:

  • 景运革. 基于知识粒度的动态属性约简算法研究[D].西南交通大学,2017.

原文地址:https://www.cnblogs.com/Gedanke/p/12359384.html

时间: 2024-10-04 23:43:33

聊一聊粗糙集(五)的相关文章

聊一聊粗糙集(一)

本系列博客将介绍经典粗糙集的相关概念和一个属性约简算法,作为系列博客的开篇之作,先不介绍具体概念,简单认识认识粗糙集. 粗糙集理论简介 粗糙集是波兰理工大学Z.pawlak教授提出用来研究不完整数据,不精确知识的表达.学习,归纳等的一套理论. 它是一种新的处理模糊和不确定性问题的数学工具,已被广泛应用于知识发现.机器学习.决策支持.模式识别.专家系统及归纳推理等领域. 粗糙集理论的特点是能够分析隐藏在数据中的事实,又不需要关于数据附加信息. 其主要思想是在保持分类能力不变的前提下,通过知识约简,

聊一聊粗糙集(四)

本节我们将继续介绍粗糙集有关的概念. 本节将介绍经典粗糙集中粒度的度量相关概念. 我们依旧使用这个决策信息系统为例. \(U\) \(a\) \(b\) \(c\) \(e\) \(f\) \(d\) 1 0 1 1 1 0 1 2 1 1 0 1 0 1 3 1 0 0 0 1 0 4 1 1 0 1 0 1 5 1 0 0 0 1 0 6 0 1 1 1 1 0 7 0 1 1 1 1 0 8 1 0 0 1 0 1 9 1 0 0 1 0 0 知识粒度 知识粒度定义如下: 给定一个决策信息

聊一聊粗糙集(六)

本节我们将继续介绍粗糙集有关的概念. 上节我们介绍了知识粒度的矩阵表示形式,本节将介绍基于知识粒度属性约简定义和算法. 基于粗糙特征选择算法亦称为属性约简,其旨在保持数据集分类能力不变的前提下,通过约简冗余属性,最后得到问题的决策或分类规则. 相关定义 设决策信息系统\(S=(U,A=C \bigcup D,V,f)\),\(B \subseteq C\),如果\(B\)为\(S\)的最小属性约简,则: \[ GP_{U}(D \mid B)=GP_{U}(D\mid C) \] \[ \for

(五)聊一聊深Copy与浅Copy

一.关于浅copy与深copy 首先说明一下: 在python中,赋值其实就是对象的引用,变量就是对象的一个标签,如果把内存对象比喻成一个个房间,那么变量就是门牌号. 深copy与浅copy只是针对可变类型而言,对于不可变类型,无论深浅,值相等,内存地址一样,一旦值发生变化,相当于再创建一个对象. 浅copy有3种方法: a=[1,2,3,["a","b"],22] a1=a[:]  切片操作 a2=list(a)  工厂函数 a3=copy.copy(a)  或

System center 2012 R2 实战五、SCVMM2012R2介绍及安装

大家好,今天我来分享的是微软System center组件中第一个组件,SCVMM2012R2的安装,说起SCVMM2012R2,我还想与大家聊一聊,SCVMM2012R2在微软私有云中的作用. 我们知道,微软的私有云一共分为三个层,最底层,是基础架构层,基础架构层上面是服务标准与自动化流程,最上面的是应用管理层,那么什么是基础架构层,基础架构层在微软私有云中是干什么的呢,我先来跟大家说一说我的理解. 微软私有云基础架构层,在我看来,主要作用是,通过微软的云计算,改善企业的IT环境,将企业传统的

10.C#匿名函数的变量捕获(五章5.5)

小分享:我有几张阿里云优惠券,用券购买或者升级阿里云相应产品最多可以优惠五折!领券地址:https://promotion.aliyun.com/ntms/act/ambassador/sharetouser.html?userCode=ohmepe03 首先感谢园友的指定,后续的文章一定会多码多想,出来的文章才有说服力.那今天接上篇我们来聊一聊匿名函数,对于匿名函数,我们知道使用delegate关键字,那我们来需要知道匿名函数在变量是的处理方式,先说两个术语,外部变量和捕获的外部变量,可以看出

聊一聊淘宝首页和它背后的一套

聊一聊淘宝首页和它背后的一套 作者: 小胡子哥 2016-06-02 12:00:00本文发布时间为2016年06月02日12时00分00秒 分类: 前端杂烩 标签: 淘宝首页 下面是正文内容评论数: 12条评论 从 14 年双十二结束开始接手淘宝首页,到如今差不多 1 年半时间,不久前完成了首页相关工作的交接.期间经历了两次改版和一次从 PHP 到 Node 的迁移,还是颇有感受,下面给大家分享下.我要说话 文章好像有点长,列个大纲会比较好:我要说话 一.相关背景介绍二.淘宝首页的整理变迁

So Easy! Oracle在Linux上的安装配置系列五

So Easy! Oracle在Linux上的安装配置系列五 本篇是监听器的配置的续篇,上一小节我们创建了一个监听器,创建了密码文,在监听和实例都启动的情况下,从远程windows即时客户端连接到了oracle服务器.本篇我将继续说监听器,还将完成相关的实验 以下内容整理自网络 Oracle 监听器 Listener 是一个重要的数据库服务器组件,在整个 Oracle 体系结构中,扮演着重要的作用.它负责管理 Oracle 数据库和客户端之间的通讯,它在一个特定的网卡端口(默认是TCP 1521

聊一聊即将来临的跳槽季

第十四章 - 02: 聊一聊即将来临的跳槽季 之前的文章中都是聊的技术,今天在九月即将开始的前一天,咱们来聊一聊跳槽季 古之 大佬们都有云: 金三银四,金九银十. 这句话也被 很多职场新人奉为真理,毕竟在那些躁动的几个月里,公司中请假的.裸辞的.休假的的人都变多了. 那么在面对诱惑多多的 跳槽季,我们应该做一些什么? 当然在面对这个每年都在变化的事情,我们当然需要去了解一下 职场 大数据! 来更加全面的去了解 职业 到底是一个什么样的存在. 2017年 拉钩互联网白皮书 一.2017年互联网行业