[Unsolved] 偏导问题

此问题来源于模糊C均值聚类的推导过程



符号定义:{xi,i=1,2,?,n}是n个样本组成的样本集合,c为预定的类别数目,μi,i=1,2,?,c每个聚类的中心,μj(xj)是第i个样本对于第j类的隶属度函数,且其满足如下关系式:

∑j=1cμj(xi)=1i=1,2,?,c(1)

用隶属度函数定义的聚类损失函数可以写为:

Jf=∑j=1c∑i=1n[μj(xj)]b∥∥xi?μj∥∥2(2)

其中,b>1是一个可以控制聚类结果的隶属度程度的常数。

令Jf对μj(xi)求偏导,可得:

μj(xj)=[1/∥∥xi?μj∥∥2]1/(b?1)∑k=1c[1/∥∥xi?μk∥∥2]1/(b?1)i=1,2,?,nj=1,2,?,c(3)

The Question is: How to get the result (3) from (2) ?

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-27 10:29:03

[Unsolved] 偏导问题的相关文章

MathType二次偏导怎么表示

求导以及求偏导运算在数学中是很重要的一个部分,尤其是在高等数学中,基本都由函数的导数与偏导组成,很多公式定理也是关于这方面的,如果少了这一部分,数学将会黯然失色.因此在文档中涉及到这些内容时,必然会少不了偏导求导符号的出现,那么编辑公式时,MathType二次偏导怎么表示? 具体操作过程如下: 1.打开MathType公式编辑器这个软件,进入到公式编辑状态,打开方式有很多种,可以根据自己的习惯来打开,对于编辑公式没有影响.  打开软件进入编辑状态 2.由于求偏导是属于分数形式,所以首先要使用分数

二阶偏导相等的一个充分条件

困扰我这么多年的问题终于解决了:为什么爷爷的爸爸和爸爸的爷爷是同一个人,而奶奶的妈妈和妈妈的奶奶却不是同一个人? 答案:二阶偏导次序不影响结果的前提是导数在区间连续. [虽然以前看过,但是没有保存]

微分 - 偏导 - 等等

在一些数学公式的推导中,常会遇到 \(d\) / \(\partial\) / \(\delta\) ?\(\Delta\) 等符号.它们背后分别代表的数学含义? 增量 设变量 \(u\) 从它的一个初值 \(u_1\) 变到终值 \(u_2\),终值与初值的差 \(u_2 - u_1\) 就叫做变量 \(u\) 的增量,记作 \(\Delta u\),即 \[\Delta u = u_2 - u_1\] 增量 \(\Delta u\) 可以是正的,也可以是负的. 应该注意到:记号 \(\Del

derivative of cost function for Logistic Regression 逻辑回归代价函数偏导证明

矩阵求导

Y = A * X --> DY/DX = A'Y = X * A --> DY/DX = AY = A' * X * B --> DY/DX = A * B'Y = A' * X' * B --> DY/DX = B * A' 于是把以前学过的矩阵求导部分整理一下: 1. 矩阵Y对标量x求导: 相当于每个元素求导数后转置一下,注意M×N矩阵求导后变成N×M了 Y = [y(ij)] --> dY/dx = [dy(ji)/dx] 2. 标量y对列向量X求导: 注意与上面不同

机器学习-统计学习方法中多项式拟合偏导函数推导

最近在学机器学习,看了Andrew Ng 的公开课,同时学习李航博士的 <统计学习方法>在此记录. 在第十二页有一个关于多项式拟合的问题.此处,作者直接给出了所求的的偏导.这里做一下详细推导. , 此处函数模型的求偏导问题,首先看一下偏导的定义 因为此处是,所以除了Wj 外的Xi,Yi 都可以视作常数.对此求解. 推导后我们会发现所得出的公式与作者给出的答案不同 ,不过作者也给出了更正的勘误 但是我们发现还是和我推导出的答案不同.作者分母下的x上标为j+1,而我推导出的上标为2j,参考作者的勘

[转载]矩阵求导公式

原文地址:矩阵求导公式[转]作者:三寅 今天推导公式,发现居然有对矩阵的求导,狂汗--完全不会.不过还好网上有人总结了.吼吼,赶紧搬过来收藏备份. 基本公式:Y = A * X --> DY/DX = A'Y = X * A --> DY/DX = AY = A' * X * B --> DY/DX = A * B'Y = A' * X' * B --> DY/DX = B * A' 1. 矩阵Y对标量x求导: 相当于每个元素求导数后转置一下,注意M×N矩阵求导后变成N×M了 Y

【转载】偏最小二乘法回归(Partial Least Squares Regression)

偏最小二乘法回归(Partial Least Squares Regression) [pdf版本]偏最小二乘法回归.pdf 1. 问题 这节我们请出最后的有关成分分析和回归的神器PLSR.PLSR感觉已经把成分分析和回归发挥到极致了,下面主要介绍其思想而非完整的教程.让我们回顾一下最早的Linear Regression的缺点:如果样例数m相比特征数n少(m<n)或者特征间线性相关时,由于(n*n矩阵)的秩小于特征个数(即不可逆).因此最小二乘法就会失效. 为了解决这个问题,我们会使用PCA对

R 语言实现求导

前言 高等数学是每个大学生都要学习的一门数学基础课,同时也可能是考完试后最容易忘记的一门知识.我在学习高数的时候绞尽脑汁,但始终都不知道为何而学.生活和工作基本用不到,就算是在计算机行业和金融行业,能直接用到高数的地方也少之又少,学术和实际应用真是相差太远了. 不过,R语言为我打开了一道高数应用的大门,R语言不仅能方便地实现高等数学的计算,还可以很容易地把一篇论文中的高数公式应用于产品的实践中.因为R语言我重新学习了高数,让生活中充满数学,生活会变得更有意思. 本节并不是完整的高数计算手册,仅介