美文网首页
Patch Tensor-Based Sparse and Lo

Patch Tensor-Based Sparse and Lo

作者: 晨光523152 | 来源:发表于2019-06-26 21:32 被阅读0次

摘要

传统方法的缺点:因为使用KNN或者 \epsilon球邻域构建图结构,以及欧氏距离计算数据点之间的相似性,对噪声敏感。并且SLGDA这些构造图结构的方法是向量模型,不能获得HSI的内在几何结构。
提出了一个patch tensor-based sparse and low-rank graph(PT-SLG)(我估计是基于TSLGDA做的,TSLGDA是基于SLGDA做的)。
这里提到一个聚类策略探索非局部相似度信息,能够增强低秩稀疏约束,并且能够减少计算损失,这个方法考虑了所有张量样本空间域的联合相似性,能够增强信息性。

引言

前面都讲的差不多。
关注下PT-SLG的东西。
区别:

  • TSLGDA是有监督的,PT-SLG是无监督;
  • TSLGDA投影是基于TLPP框架(我感觉说的是张量模乘投影);
  • PT-SLG的计算效率大大优于TSLGDA;

PT-SLG的优点:

  • 张量模型的优点:自然的保留空间结构,增强空间信息;
  • 稀疏低秩的优点:低秩探索全局结构使得结构鲁棒,稀疏探索局部结构;
  • 聚类方法的优点(感觉这部分是重点也是区别于TSLGDA的东西):把张量样本分为若干簇,对每一个簇建立子图,最后把子图拼接成最后的图。

聚类方法的好处(还不能理解):

  • 能够把被同一土地覆盖的样本尽可能的分到同一个簇,所以同一个簇里的样本在空间区域上有更高的相似性,在光谱区域上有更多冗余(把这个东西施加在子图上,能够消除冗余和提取更多的结构信息);
  • 通过聚类算法能够使得每一个样本被同一类中的其它样本表示,这能够稀疏表示的解空间,并且能够减少计算花费。

克罗内克积(之前的张量方面的文章都没有用到这个)

克罗内克积是两个任意大小的矩阵间的运算,是张量积的特殊形式。
\begin{equation} Y = A\bigotimes B = \left[ \begin{array}{cccc} a_{11}B & a_{12}B & ... & a_{1J}B\\ a_{21}B & a_{22}B & ... & a_{2J}B\\ ... & ... & ... & ... \\ a_{I1}B & a_{I2}B & ... & a_{IJ}B \end{array} \right] \end{equation}
其中A\in R^{I\times J},B\in R^{K\times L},则Y\in R^{IK \times JL}
(感觉像是,把两个矩阵里面所有元素的互相乘了一遍)

相关工作

  • Graph Embedding
    graph embedding是向量模型中的求投影矩阵的基本框架。
    把高光谱看成X = [x_1,x_2,..., x_M]共计M个像素点,x_i\in R^{D\times 1},为了找到投影矩阵P\times R^{D\times Q}(Q<<D)
    构建内在图G = \{X,W\},惩罚图G_{p} = \{X,W_{p}\}
    优化目标是:

    image1.png
    其中,L = D - W,L_{p} = D_{p} - W_{p}
    优化目标等价于:
    image2.png
    再变成广义特征值问题:
    image3.png
  • Sparse Graph
    思想是,每一个样本能被其它样本表示的线性组合表示出来。
    优化目标是:


    image4.png

    0范数是np难问题,松弛为1范数求解(具体为啥还没看懂)


    image5.png
  • LRR and Low-Rank

    imag6e.png
    这里的Z是等价于稀疏表示中的W
    由于这里求rank也是比较困难,用核范数来代替
    image6.png
    E是噪声项。
  • Sand Low-Rank Decomposition of Tensor Dataset
    自然而然的把稀疏和低秩表示融合在一起就是稀疏低秩了。
    我们先看SLGDA,是针对于向量模型的稀疏低秩判别分析。
    优化目标是:

    image7.png
    把这里的输入变成张量就变成了TSLGDA,
    优化目标是:
    image8.png
    这是TSLGDA里面的描述。
    我不喜欢这篇文章里的描述,他没有说清楚3阶张量是如何变成4阶的(暂时我有两个想法不知道对不对)
    TSLGDA里面遵循的是SLGDA的框架,先算W,接着使用TLPP的算投影矩阵的框架来算出3个投影矩阵U_1,U_2,U_3(TLPP算法也是需要先求W),接着使用张量模乘来做投影。

本文里的方法

优化目标:

image9.png
约束条件里面是张量的模乘,张量模乘的结果在一个轴展开可以和矩阵乘法是等价的,因此可以变为:
image10.png
这里写的稀疏低秩分解就和TSLGDA里面不太一样,
感觉上是不用求,直接求4个投影矩阵。
引入辅助标量:
image11
接着写成增广拉格朗日形式:
image12.png
接着就是常规的求导求解过程:
image13.png
算法表格为:
image14.png

接下来就是我感觉最吸引我,最创新的地方

  • 针对第三个光谱轴上的投影问题,文章把这里张量的降维重新变成graph embedding框架里。
    image15.png
    image16.png
    image17.png
    通过三个步骤求出第三个轴光谱轴的投影矩阵。我不明白的是这里S的求解为什么不用U_3U_1,U_2保留了空间信息,U_4保留的是样本信息,把这三个组合在一起,为什么要舍掉U_3
  • 聚类
    因为对所有样本中稀疏表示使得,一个样本能表示成其它很多样本的线性组合,计算起来非常麻烦。
    使用k-means,使得每一簇里的样本就被它所在的簇里的样本线性表示,能减少计算花费。
    这也是我认为的闪光点。
    还是通过张量的模乘降维:


    image18.png

本文的算法表格为:


image19.png

相关文章

网友评论

      本文标题:Patch Tensor-Based Sparse and Lo

      本文链接:https://www.haomeiwen.com/subject/shrfcctx.html