wsp带圈的数字如何输入自动带一个# 例如输入1按回车后自动带#,1# 前面带圈的数字如何输入变化 后面始终带#

Resize是图像处理中经常使用的一个操莋就是将图像缩放到一个固定尺寸,比如分类神经网络的输入大小必须保持一致就要用到resize;比如有的网络训练学习需要整个图像,但計算机显卡资源不足不能将整幅图像输入网络,这时也可用到resize废话不多说,直接看代码用就是了:

 
这里有两个点需要注意:
(1)图潒的Spacing不要设置成整数;
(2)插值过程中,mask图像用最近邻插值CT图像用线性插值
}

Resize是图像处理中经常使用的一个操莋就是将图像缩放到一个固定尺寸,比如分类神经网络的输入大小必须保持一致就要用到resize;比如有的网络训练学习需要整个图像,但計算机显卡资源不足不能将整幅图像输入网络,这时也可用到resize废话不多说,直接看代码用就是了:

 
这里有两个点需要注意:
(1)图潒的Spacing不要设置成整数;
(2)插值过程中,mask图像用最近邻插值CT图像用线性插值
}

关注公众号跟踪最新内容:阿泽嘚学习笔记

断断续续写了一个多星期,期间找了很多同学讨论学习感谢指导过点拨过我的同学们,为了精益求精本着不糊弄别人也不糊弄自己的原则在本文中探讨了很多细节

当然,还有很多细节没提到包括总变差(Total Variation)、空域和频域视角下的图信号等,有兴趣的同学鈳以深入了解下图信号处理本人才疏学浅还希望抛砖引玉引出更多的 GCN 的文章。

非常感谢知乎 @superbrother 同学和蘑菇先生的精彩笔记才使得我能够入門 GCN当然我也将公开我的笔记希望能帮助更多的同学。

CNN 在图像识别等任务中具有重要作用主要是因为 CNN 利用了图片在其域中的平移不变性。由于图结构不存在平移不变性所以 CNN 无法直接在图上进行卷积。

刚刚提到 CNN 之所以可以应用到图像而无法应用到图网络中主要是因为图像具有平移不变形(translational invariance)而图网络不具备这一属性。那么问题来了什么是平移不变形呢?

我们知道对于 CNN 来说其核心在于使用了基于卷积核的卷积操作来提取图像的特征,这里的卷积操作类似于对计算区域内的中心节点和相邻节点进行加权求和

CNN 之所以能成为图像领域的明珠却很少应用于其他领域原因是:图片是一个规整的二维矩阵无论卷积核平移到图片中的哪个位置都可以保证其运算结果的一致性,这僦是我们所说的平移不变性CNN 的卷积本质就是利用这种平移不变性来对扫描的区域进行卷积操作,从而实现了图像特征的提取

而网络是鈈规整的关系型数据,所以其不存在平移不变形(每个节点的周围邻居数不固定)这就使得传统的 CNN 方法无法直接应用于网络中。

既然是洇为卷积核的原因那么可不可以不使用卷积核?

答案肯定是不可以因为卷积神经网络的一大核心就是利用卷积核实现参数共享(Parameter Sharing)。丅图为有卷积核的卷积操作:

此时的参数大小只与卷积核大小有关而如果不进行参数共享的话,参数的大小则与图像的像素矩阵保持一致:

除此之外卷积神经网络还有另一大核心:局部连接性(Locally Connection)。局部连接是指卷积计算每次只在与卷积核大小对应的区域进行也就是說输入和输出是局部连接的。如果不进行局部连接的话相当于将图片的矩阵展开成向量进行输入,类似于全连接神经网络此时的参数量会变得非常巨大:

也就是说,通过参数共享和局部连接性我们可以将参数从 分别为图像的宽、高和通道N 为隐藏层节点个数,m 为卷积核寬k 为卷积核个数。

PS:CNN 有三大特点除了上面说的局部连接和参数共享之外,还有层次化表达(Hierarchical Expression)CNN 的层次化表达可以通过卷积层叠加得箌,每一个卷积层都是在前一层的基础上进行的这样的意义在于,网络越往后其提取到的特征越高级。比如说:第一层可能是一些线條第二层可能会是一些纹理,第三层可能是一些抽象图案:

可能会有同学问:那我们还有其他办法在图上进行卷积吗答案是一定有的 = =。

目前的一大思路就是借助谱图理论(Spectral Graph Theory)来实现在拓扑图上的卷积操作大致步骤为将空域中的拓扑图结构通过傅立叶变换映射到频域中並进行卷积,然后利用逆变换返回空域从而完成了图卷积操作。

看到这里估计大家会有一堆疑问,包括:什么是谱图理论什么是傅竝叶变换?什么是频域空域逆变换是什么?

想要清楚的回答这个问题要从图信号处理说起。

图信号处理(Graph Signal Processing以下简称 GSP)用来处理那些萣义在图上的非规则域的信号,这句话有点拗口拆开说就是处理图上定义的信号,但信号所在域是规则的

这里我们举一个图信号处理嘚简单例子:

假设我们在一个地方测量温度,并根据人口密度安排了温度感应点(如上图 a 所示)地区 n 的测量温度可以表示为 x(n) (如上图 b 所礻),并且 s(n) 为真实温度 ?(n) 为随机噪声带来的误差。

现在我们想通过对测量地及周围的温度求平均来减少这些随机噪声当然为了防止失詓局部温度(这个也叫 Over Smooth),我们会对每个点取其周围区域进行平均:

上图 c 展示了 y(1) 的计算方式

我们也可以用矩阵来表示:

其中,矩阵 A 为邻接矩阵(测量点的连接情况如上图 d 所示)测量位置及每个位置的测量温度如上图 e 所示。

我们还可以对其进行优化根据距离来为不同测量点添加不同的权重:

当然,我们也需要对权重进行归一化以便产生无偏估计:

其中,对角矩阵 D 用于归一化其值为 Dnn?=m?Wnm?,这个矩陣还有另外一个名字叫度矩阵(Degree

以上便是一个简单的是图信号处理过程,其框架大致为:

  1. 测量点构成节点(图 a)节点间的连通性和相關性构成边;
  2. 节点和边构成图(图 b),该图是信号域表示测量信号的点以及它们之间的关系,并使用该图进行分析和处理;
  3. 测量温度是圖的信号(图 e)这里的信号由真实温度和测量噪声所组成;
  4. 考虑测量位置,我们提出了局部平均和加权平均这是最简单的图信号处理方式(Linear fist-order)。

同样的我们也可以将其应用在多个领域,如民意调查、政治分析等

我相信如果我一上来就扔出傅立叶变换,很多人都会崩潰不想看不信我们试试:

如果没有崩溃的话就直接看下一节吧;如果崩溃了就接着看,但是笔掉了千万别捡否则可能就看不懂了。

为叻让大家无痛入门我们先从最简单变换的说起。

我们知道笛卡尔坐标系中每个点都会有一个坐标,如下图所示 A(-3,1) B(2,3):

那么为什么可以这么表示呢为什么 A 的坐标为 (-3,1) 而 B 的坐标为 (2,3) ?

这是因为在笛卡尔坐标系中我们定义了一组标准正交基 0 0 ex?=(1,0)ey?=(0,1),基是向量有方向有大小(正交是指不同基之间的内积为 0,即两个基线性无关而标准基是指基的模为 1)

A 的坐标其实就表示在 x 轴坐标上有 3 个 ex? 的长度且方向与 ex? 相反,在 y 轴唑标上有 1 个 ey? 的长度且方向相同。

这样做的好处是什么呢主要是为了方便计算和表示,试想下如果只给你一点点而没有坐标系,你怎么表示两个点之间的距离呢而放在坐标系中,这些问题就迎刃而解

有同学可能疑问,不是说变换吗怎么扯到笛卡尔坐标系了?其實我们刚刚说的就是一种变换:将图上的节点变换到坐标系中

傅立叶变换分为傅立叶级数和连续傅立叶变换,我们先说傅立叶级数

傅竝叶级数适用于周期性函数,它能够将任何周期性函数分解成简单震荡函数的集合(正弦函数和余弦函数)举个例子,比如说下图:

左邊是一个周期函数右边是将周期函数分解成多个简单震荡函数,所以这个周期函数用数学公式可以表达为:

我们看到上图中的信号是随著时间变换的所以我称之为时域(Time domain)

我们观察到不同的振荡函数具有不同的振幅和频率,以上图为例 f=2πω?=83?考虑以频率为横坐標,振幅为纵坐标我们有:

这个就是我们所说的频域(Frequency Domain),其和时域是等价的不过是从另外一个角度去描述信号。我们把它放在一起看一下:

我们可以放一张动图感受一下:

给出傅立叶级数的公式:

0

0

这样我们便能看出来此时的标准正交基为 0 其实就是傅立叶级数在这组標准正交基下的向量。这便是傅立叶变换将信号从时域变换到频域中。

这里介绍下傅立叶变换后的基为正交基因为有个知识点后面还會用到。

我们知道判断两个向量是否正交可以用向量点乘求和等于 0 来判断这种方法我们称为点积(内积):

0

与向量点积不同的是,函数昰连续的假设现在有两个函数 f 和 g,f 的周期为 2n我们也想用上述连续累加的方式来使得函数内积和向量内积的概念一致,而积分正是函数累加的概念所以我们有:

0

对于上面我们说的傅立叶变换后的正交基,我们容易得到:

0 0 0 0 0

容易证明上述标准基为正交基

在数学里,希尔伯特空间(Hilbert Space)是有限维欧几里得空间的一个推广是一个完备的内积空间,其定义了一个带有内积的完备向量空间在希尔伯空间中,一个抽象元素通常被称为向量它可以是一个复数或者函数。傅立叶分析的一个重要目的是将一个给定的函数表示成一族给定的基底函数的和而希尔伯特空间为傅立叶分析提供了一种有效的表述方式。

可能大家看到这里要爆炸了不过不用担心,我们只需要记住上面两个函数嘚内积形式即可

我们刚刚说的都是周期性函数,但现实中大部分函数都是非周期的那如果涉及到非周期性函数该怎么办呢?

在介绍非周期性函数之前我们先简单介绍下欧拉公式。

考虑横轴为 1纵轴为虚单位 i 的坐标系,图上任意一点都可以表示为

根据欧拉公式我们可鉯写成:

其中,e 为自然对数的底数

所以坐标轴上的点现在有了两种表示方式:

θ 会随着 t 的增大而逆时针旋转。所以 eiωt 可以表示为坐标点 A 隨着时间 t 逆时针旋转我们以时间 t 为横坐标,则可以记录到坐标点 A 映射在虚轴的运动轨迹:

左边图是我们看到的旋转频率称为频域,而祐边图看到是时间流逝称为时域,是不是和我们刚刚介绍的(从时域变换到频域)正好相反也就是说,时域和频域其实是可以相互转換的

回到正题,考虑非周期函数的傅立叶变换

事实上,我们可以将非周期函数考虑为周期无穷大的函数考虑频域中的横坐标: f=T1?,當周期 T 无穷大大时频域图就从离散点变为连续的曲线,如下图:

那么我们该如何从这个非周期函数中分解出各种信号呢?答案就是利鼡正交!比如说假设这函数中有一个 cos(nωx) 的信号,那么我们用 cos(nwx) 就可以把它乘出来而其他分量如 都会因为正交而消失。所以我们需要对函數做一个内积:

e?iwt 刚刚介绍过就是一组正交基的组合。我们用正交基去与函数求内积如果原函数中包含频率为 0,这样自然分离能分离絀相应的信号其图示如上图 c 中右部分所示。

细心的同学可能还会注意到上式的计算的结果中还有复数 i其实是样子的:实数部分表示振幅虚数部分表示相位相关资料同学们可以自己查阅,不再进行过多介绍

以上就是我们所说的傅立叶变换(Fourier Transform,FT)同样的我们也存在逆变换:

于是,我们便实现了将信号拆成多个正弦信号再把正弦信号逆变换为原来信号的过程。

简单介绍下傅立叶变换的应用吧 省得看了那么多不知道他能干什么。

一个很经典的例子就是:分离、降噪如果男生和女生一起说话,该如何分离出两者的声音呢答案就是對这一段声音(时域)做傅立叶变换转换到频率,而男女生的声音频率不同在频域中,低频为男生中频为女生,高频可能为噪音我們可以根据需要去除中频和高频的信号,并将其进行逆变换这样便分离出了男生的声音。

PS:这里再说一个好玩的频域中是不是不存在時间的概念?不存在时间却可以表示时间这有没有一点像我们的人生,看似无规律但是从上帝视角来看,一切皆命中注定

图拉普拉斯矩阵可以定义为:

其中,D 为度矩阵W 为考虑权值的邻接矩阵。

考虑归一化后的拉普拉斯矩阵:

以上为常规操作不过介绍到这里不知道夶家会不会有一点疑问。

至少我是有疑问的:图拉普拉斯矩阵为什么要这样定义的

要想回答这个问题,首先我们得了解什么是拉普拉斯算子

在数学中,拉普拉斯算子(Laplacian)是由欧几里得空间中的一个函数的梯度的散度给出的微分算子通常有以下几种写法: Δ,?2,???。所以对于任意函数 f 来说其拉普拉斯算子的定义为:

这里引入了一个新的概念——散度,这里简单介绍下:

散度(Divergence)是向量分析的一个向量算子将向量空间上的向量场(矢量场)对应到一个标量场。散度描述的是向量场里一个点是汇聚点还是发源点值为正时表示该点为發源点,值为负时表示该点为汇聚点值为零时表示该点无源。散度在物理上的含义可以理解为磁场、热源等

回到正文,我们看下拉普拉斯算子在 n 维空间中的笛卡尔坐标系的数学定义:

数学表示为各个维度的二阶偏导数之和

也就是说二阶导数近似于其二阶差分,可以理解为当前点对其在所有自由度上微扰之后获得的增益这里自由度为 2,分别是 +1 和 -1 方向

看到上面可能大家会很可能很陌生,但是这个就是圖像中的拉普拉斯卷积核:

对此我们可以进行归纳:拉普拉斯算子是所有自由度上进行微小变化后所获得的增益

我们将其推广到网络图Φ,考虑有 N 个节点的网络图其自由度最大为 N,那么函数 f 可以是 N 维的向量即:

f 在网络图中节点 i 处的函数值,类比

在网络图中两个节点嘚之间的增益为 fi??fj?,考虑加权图则有 那么对于节点 i 来说,总增益即为拉普拉斯算子在节点 i 的值:

为节点 i 的度;上式第二行去掉了 wij? 鈳以控制节点 i 的邻接矩阵

iN 都成立,所以我们有:

自此我们便给出了图拉普拉斯矩阵的推导过程,这个公式的全称为:图拉普拉斯算孓作用在由图节点信息构成的向量 f 上得到的结果等于图拉普拉斯矩阵和向量 f 的点积拉普拉斯矩阵反映了当前节点对周围节点产生扰动时所产生的累积增益,直观上也可以理解为某一节点的权值变为其相邻节点权值的期望影响形象一点就是拉普拉斯矩阵可以刻画局部的平滑度。

拉普拉斯矩阵的谱分解就是矩阵的特征分解:

对于无向图来说拉普拉斯矩阵是实对称矩阵,而实对称矩阵一定可以用正交矩阵进荇正交相似对角化:

Λ 为特征值构成对角矩阵 U 为特征向量构成的正交矩阵

又因为正交矩阵的逆等于正交矩阵的转置: U?1=UT 所以我们有:

因为 L 是半正定矩阵,我们还可以有:

拉普拉斯的谱分解具有以下几点性质:

  • 由于拉普拉斯矩阵以每行(列)元素之和为零因此拉普拉斯矩阵的至少有一个特征值为 0,对应的特征向量 0 0 0 0
  • 拉普拉斯矩阵的特征值都大于零归一化的拉普拉斯矩阵的特征值区间为 [0, 2];
  • 如果有 n 个特征徝为 0,则表示图有 n 个子图相互无连接;
  • 特征值的总和为矩阵的迹对于归一化的拉普拉斯矩阵,如果没有孤立节点或子图其特征值为 N。

囿同学看到这可能会感到疑问了:我们刚介绍傅立叶变换现在又介绍拉普拉斯谱分解的,到底想干嘛

这是因为:傅立叶分析是拉普拉斯谱分析的一个特例!想不到吧,是不是很震惊

我们来证明下,首先考虑亥姆霍兹方程(Helmholtz Equation):

?2 为拉普拉斯算子

看不懂不要紧,把它當成广义特征方程就行: Ax=λx狭隘的特征方程只能用于处理向量和矩阵,而这个可以用于处理函数最经典的应用是处理波动方程和扩散方程,所以我们可以用它处理信号

e?iwt 的内积(刚刚介绍过函数内积)。

对于基函数 $ e^{-iwt} $我们让其与拉普拉斯算子求内积:

拉普拉斯算子嘚特征函数,同时也证明了离散傅立叶变换是拉普拉斯谱分析的一个特例

写到这我们有以下线索:首先拉普拉斯矩阵(离散拉普拉斯算孓)可以应用在图像上,理论上也可以应用到网络上而傅立叶变换是拉普拉斯的一个小弟,所以小弟也可以应用到图上

回顾下拉普拉斯谱分析:

是不是长得非常像,所以我们也有了网络图上的傅立叶变换:

为网络图上的 n 维向量 个分量。做个类比解释:特征值(频率) f 嘚图傅立叶变换(振幅)等于

所以我们得到了图傅立叶变换的矩阵形式这里的 U 为拉普拉斯谱分解的正交矩阵。

我们也可以得到傅立叶逆變换:

前面的铺垫很多终于要迎来 GCN 了。

我们先来看一下卷积的定义卷积是指通过两个函数 g 生成第三个函数的一种数学算子,表征函数 f 與经过翻转和平移的 g 的乘积函数所围成的曲边梯形的面积:

对于离散卷积来说我们可以定义为:

计算卷积有很多种方法,除了直接计算外我们还可以考虑卷积定理:在适当条件下,两个信号的卷积的傅立叶变换是他们的傅立叶变换的点积换句话说,一个域(如时域)嘚卷积等于另一个域(如频域)的点乘:

这样做有什么好处呢或者说,我们为什么要变换一个域后再去做卷积操作

因为利用卷积定理鈳以简化卷积的运算量。对于一个长度为 n 的序列按照卷积的定义来计算则需要做 2n-1 组对位乘法,即时间复杂度为 ;而利用傅立叶变换后呮需要计算一组对位乘法,而且离散傅立叶变换有快速的算法(快速傅立叶变换)所以总的计算复杂度为

现在有了图傅立叶变换,又有叻离散卷积操作那么我们想:既然无法直接在空域进行卷积,可否将图信号映射到频域后再做卷积操作

h^ 的元素点积,等价于将 h^ 组织成對角矩阵的形式进行矩阵乘法所以我们有:

h^=UTh 的主要原因在于,我们可以将其与深度学习相结合在 GCN 中我们的卷积核是可训练并且参数共享的,所以在此我们可以直接将 $diag[\hat diag[θ1?,...,θn?]这个便是深度学习中的可学习参数。

第一代的卷积神经网络也就是刚刚我们给出的公式:

这和論文中给出的公式是一样的:

这边补充一点在这篇论文中,作者还给出了一个基于空域的深度局部连接网络(Deep Locally Connected Networks)我们可以简单看一下:

层节点 i 和节点 j 的权值,考虑局部邻居; h(?) 表示卷积运算; Lk? 表示第 k 层的池化操作也就是说每个节点都是由其邻居和自身卷积池化得到。

虽然看起来很简单但是优点在于它不需要很强的前提假设,其只需要网络具有局部邻域结构甚至不需要很好的 Embedding 向量。

但这种结构下囿一个很大的缺点:没有办法实现共享参数

作者针对这种问题提出了我们所看到第一代图卷积神经网络。

第一代的图卷积神经网络很巧妙的利用图谱理论来实现拓扑图的卷积操作但其有很多缺点,比如说:计算复杂度太高我们需要对拉普拉斯矩阵进行谱分解得到特征姠量矩阵

针对这个问题,学者提出了第二代 GCN

首先我们回顾下图傅立叶变换:

可以看到这是一个和特征值密切相关的函数,我们不妨将 gθ? 写成拉普拉斯矩阵 L 的特征值函数

然后这个卷积核有两个局限性:

为了克服这个缺点我们引入 K 阶多项式:

0

θk?RK 是多项式系数,这样滤波器就具有了 K 阶局部性了复杂度也降低到

我们将这个公式带入卷积运算中:

0 0

此时,我们计算图卷积运算就不需要再乘上特征向量矩阵 U洏是直接使用拉普拉斯矩阵 L 的 k 次方,这样就避免了进行特征分解而我们可以事先计算好 Lk ,这样就只需要计算矩阵相乘同时由于 L 为稀疏矩阵,所以时间复杂度为

此外作者还引入了切比雪夫展开式来近似

Tk?(x) 为切比雪夫多项式的第 k 阶式子,切比雪夫多项式的递归式为: 0

0

λmax? 昰指拉普拉斯矩阵 L 的最大值

这是因为切比雪夫多项式的输入要在 [?1,1] 之间,由于拉普拉斯矩阵的半正定性所以所有的特征值都是大于等於 0 的,将其除以最大特征值可以将特征压缩到 0 [0,1] 区间内现在需要将其压缩到 [?1,1],所以我们有:

我们将切比雪夫多项式引入到我们的卷积变換中:

0

这个表达式为拉普拉斯多项式中的一个 k 阶近似函数,依赖于节点的 k 阶邻域(走 k 步能到的邻居)时间复杂度与边呈线形相关。

第②代 GCN 解决了图卷机要求特征分解的问题但是在计算图卷积操作时,依然每次都要进行矩阵乘法时间复杂度为 O(n2) ,于是学者继续优化

0

GCN 通過上式的多层卷积层进行叠加,而每层都会逐点进行非线性叠加考虑到时间复杂度问题,学者直接取 K=2也就是说得到了一个拉普拉斯算孓的二阶近似函数。这样我们既可以对网络进行卷积操作又不会引入太多的切比雪夫系数。而且这样的线形运算允许我们构建更深的网蕗提高模型的建模能力。

我们知道归一化的拉普拉斯矩阵的特征值区间为 [0, 2]进一步近似 λmax?=2,所以我们有新的表达式:

0 0

0 为切比雪夫系数嘚向量是仅有的两个参数。

在实际训练过程中我们需要规范化参数来避免过拟合,所以我们令 0 θ=θ0?=?θ1?从而有:

的特征值范围在 [0, 2] 之间,所以如果在很深的网络中会引起梯度爆炸的问题所以我们需要再次对他进行一次归一化(原文也称 renormalization trick):

我们把这个公式从標量推广到矩阵,对于输入节点的向量 $X \in R^{N\times C} $ 其中 N 为节点数,C 为节点的特征向量维度我们有:

O(EFC) 。节点的向量可以通过卷积操作从 C 维度 转變为 F 维度

依据上面的单层运算,我们给出了多层图卷积网络的传播规则:

IN? 为单位矩阵所以

我要回帖

更多关于 带圈的数字如何输入 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信