大佬们知道这个公式是万能公式怎么推导出来的的吗?

为大家分享:高中物理重要公式定律的证明与推导。

来源:本文来源于网络,贵在分享,版权归原作者原出处所有。

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。

从CNN到GCN的联系与区别——GCN从入门到精(fang)通(qi)

1 什么是离散卷积?CNN中卷积发挥什么作用?

了解GCN之前必须对离散卷积(或者说CNN中的卷积)有一个明确的认识:

这个链接的内容已经讲得很清楚了,离散卷积本质就是一种加权求和。

如图1所示,CNN中的卷积本质上就是利用一个共享参数的过滤器(kernel),通过计算中心像素点以及相邻像素点的加权和来构成feature map实现空间特征的提取,当然加权系数就是卷积核的权重系数。

那么卷积核的系数如何确定的呢?是随机化初值,然后根据误差函数通过反向传播梯度下降进行迭代优化。这是一个关键点,卷积核的参数通过优化求出才能实现特征提取的作用,GCN的理论很大一部分工作就是为了引入可以优化的卷积参数。

注:这里的卷积是指深度学习(CNN)中的卷积,与数学中定义的卷积运算严格意义上是有区别的。两者的区别与联系可以见我的另一个回答。

CNN是Computer Vision里的大法宝,效果为什么好呢?原因在上面已经分析过了,可以很有效地提取空间特征。但是有一点需要注意:CNN处理的图像或者视频数据中像素点(pixel)是排列成成很整齐的矩阵(如图2所示,也就是很多论文中所提到的Euclidean Structure)。

与之相对应,科学研究中还有很多Non Euclidean Structure的数据,如图3所示。社交网络、信息网络中有很多类似的结构。

实际上,这样的网络结构(Non Euclidean Structure)就是图论中抽象意义上的拓扑图。

那么为什么要研究GCN?原因有三:

(1)CNN无法直接处理Non Euclidean Structure的数据。通俗理解就是在拓扑图中每个顶点的相邻顶点数目都可能不同,那么当然无法用一个同样尺寸的卷积核来进行卷积运算。

(2)由于CNN无法处理Non Euclidean Structure的数据,又希望在这样的数据结构(拓扑图)上有效地提取空间特征来进行机器学习,所以GCN成为了研究的重点。

(3)读到这里大家可能会想,自己的研究问题中没有拓扑结构的网络,那是不是根本就不会用到GCN呢?其实不然,广义上来讲任何数据在赋范空间内都可以建立拓扑关联,谱聚类就是应用了这样的思想()。所以说拓扑连接是一种广义的数据结构,GCN有很大的应用空间。

综上所述,GCN是要为除CV、NLP之外的任务提供一种处理、研究的模型。

3 提取拓扑图空间特征的两种方式

Vertex domain(spatial domain)是非常直观的一种方式。顾名思义:提取拓扑图上的空间特征,那么就把每个顶点相邻的neighbors找出来。这里面蕴含的科学问题有二:

根据a,b两个问题设计算法,就可以实现目标了。推荐阅读这篇文章(图4是其中一张图片,可以看出大致的思路)。

这种方法主要的缺点如下:

c.每个顶点提取出来的neighbors不同,使得计算处理必须针对每个顶点

d.提取特征的效果可能没有卷积好

当然,对这个思路喜欢的读者可以继续搜索相关文献,学术的魅力在于百家争鸣嘛!

从上面的介绍可以看出,从vertex domain分析问题,需要逐节点(node-wise)的处理,而图结构是非欧式的连接关系,这在很多场景下会有明显的局限性。

而spectral domain是将问题转换在“频域”里分析,不再需要node-wise的处理,对于很多场景能带来意想不到的便利,也成为了GSP的基础。

关于Spectral graph theory的具体介绍,可以参下面的一些资料,简单的概括就是借助于图的拉普拉斯矩阵的特征值和特征向量来研究图的性质。

4 什么是拉普拉斯矩阵?为什么GCN要用拉普拉斯矩阵?

D 是顶点的度矩阵(对角矩阵),对角线上元素依次为各个顶点的度, A 是图的邻接矩阵。看图5的示例,就能很快知道Laplacian 矩阵的计算方法。

这里要说明的是:常用的拉普拉斯矩阵实际有三种:

Laplacian就能看出了两者确有相似之处(其实两者只差一个相似矩阵的变换,可以参考,以及下图)

不需要相关内容的读者可以略过此部分

其实维基本科对的定义上写得很清楚,国内的一些介绍中只有第一种定义。这让我在最初看文献的过程中感到一些的困惑,特意写下来,帮助大家避免再遇到类似的问题。

为什么GCN要用拉普拉斯矩阵?

拉普拉斯矩阵矩阵有很多良好的性质,这里写三点我感触到的和GCN有关之处:

(1)拉普拉斯矩阵是对称矩阵,可以进行特征分解(谱分解),这就和GCN的spectral domain对应上了

(2)拉普拉斯矩阵只在中心顶点和一阶相连的顶点上(1-hop neighbor)有非0元素,其余之处均为0

(3)通过拉普拉斯算子与拉普拉斯矩阵进行类比(详见第6节)

两者的关系可以参考我的另一个文章:

5 拉普拉斯矩阵的谱分解(特征分解)

GCN的核心基于拉普拉斯矩阵的谱分解,文献中对于这部分内容没有讲解太多,初学者可能会遇到不少误区,所以先了解一下特征分解。

矩阵的谱分解,特征分解,对角化都是同一个概念()。

不是所有的矩阵都可以特征分解,其充要条件为n阶方阵存在n个的。

但是拉普拉斯矩阵是半正定对称矩阵(半正定矩阵本身就是对称矩阵,,此处这样写为了和下面的性质对应,避免混淆),有如下三个性质:

  • 实对称矩阵一定n个线性无关的特征向量
  • 半正定矩阵的特征值一定非负
  • 实对阵矩阵的特征向量总是可以化成两两相互正交的正交矩阵

由上可以知道拉普拉斯矩阵一定可以谱分解,且分解后有特殊的形式。

对于拉普拉斯矩阵其谱分解为:

由于 U 是正交矩阵,即 UU^{T}=EE 是单位矩阵。

所以特征分解又可以写成:

文献中都是最后导出的这个公式,但大家不要误解,特征分解最右边的是特征矩阵的逆,只是拉普拉斯矩阵的性质才可以写成特征矩阵的转置。

其实从上可以看出:整个推导用到了很多数学的性质,在这里写得详细一些,避免大家形成错误的理解。

6 如何从传统的傅里叶变换、卷积类比到Graph上的傅里叶变换及卷积?

把传统的傅里叶变换以及卷积迁移到Graph上来,核心工作其实就是把拉普拉斯算子的特征函数 e^{-i\omega t} 变为Graph对应的拉普拉斯矩阵的特征向量

6.1 推广傅里叶变换

想亲自躬行的读者可以阅读这篇论文,下面是我的理解与提炼:

传统的傅里叶变换定义为:

广义的特征方程定义为:

其中 A 是一种变换, V 是特征向量或者特征函数(无穷维的向量), \lambda 是特征值。

那么,可以联想了,处理Graph问题的时候,用到拉普拉斯矩阵(拉普拉斯矩阵就是离散拉普拉斯算子,想了解更多可以参考),自然就去找拉普拉斯矩阵的特征向量了。

L 是拉普拉斯矩阵, V 是其特征向量,自然满足下式:

离散积分就是一种内积形式,仿上定义Graph上的傅里叶变换:

u_l(i)表示第 l 个特征向量的第 i 个分量。那么特征值(频率) 对应的特征向量 u_l 进行内积运算。

注:上述的内积运算是在复数空间中定义的,所以采用了 u_l^*(i) ,也就是特征向量 u_l 的共轭。Inner product更多可以参考。

利用矩阵乘法将Graph上的傅里叶变换推广到矩阵形式:

式中: U^T 的定义与第五节中的相同

类似地,传统的傅里叶逆变换是对频率 \omega 求积分:

利用矩阵乘法将Graph上的傅里叶逆变换推广到矩阵形式:

式中: U 的定义与第五节中的相同

在上面的基础上,利用卷积定理类比来将卷积运算,推广到Graph上。

卷积定理:函数卷积的傅里叶变换是函数傅立叶变换的乘积,即对于函数 f(t)h(t)两者的卷积是其函数傅立叶变换乘积的逆变换:

类比到Graph上并把傅里叶变换的定义带入, f 与卷积核 h 在Graph上的卷积可按下列步骤求出:

再乘以 U 求两者傅立叶变换乘积的逆变换,则求出卷积:

式中: UU^{T} 的定义与第五节中的相同。

注:很多论文中的Graph卷积公式为:

\odot 表示Hadamard product(哈达马积),对于两个维度相同的向量、矩阵、张量进行对应位置的逐元素乘积运算。

其实式(2)与式(1)是完全等价的,详细的证明见我的另一篇文章。

这里主要推(1)式是为了和后面的deep learning相结合。

这部分理论也是我看了很久才想明白的,在此记录下来,如果是想继续探究理论的朋友,可以作为“入门小引”,毕竟理论还很深!对于喜欢实践的朋友,也能初步了解理论基础,也是“开卷有益”。

7 为什么拉普拉斯矩阵的特征向量可以作为傅里叶变换的基?

傅里叶变换一个本质理解就是:把任意一个函数表示成了若干个正交函数(由 \sin\omega t,\cos\omega t 构成)的线性组合。

图6 傅里叶逆变换图示

通过第六节中(b)式也能看出,graph傅里叶变换也把graph上定义的任意向量 f ,表示成了拉普拉斯矩阵特征向量的线性组合,即:

那么:为什么graph上任意的向量 f 都可以表示成这样的线性组合?

n 个线性无关的正交向量(原因参看第五节中拉普拉斯矩阵的性质),由线性代数的知识可以知道:n 维空间中n 个线性无关的向量可以构成空间的一组基,而且拉普拉斯矩阵的特征向量还是一组正交基。

的频率。与之类似,拉普拉斯矩阵的特征值 \lambda_i 也表示图拉普拉斯变换的频率。具体的分析可以看如下的文章。


Deep learning 中的Graph Convolution直接看上去会和第6节推导出的图卷积公式有很大的不同,但是万变不离其宗,(1)式是推导的本源。

第一代的参数方法存在着一些弊端:主要在于:

(1)每一次前向传播,都要计算 U,diag(\theta_l )U^T三者的矩阵乘积,特别是对于大规模的graph,计算的代价较高,也就是论文中 \mathcal{O}(n^3)的计算复杂度

(3)卷积核需要 n 个参数

由于以上的缺点第二代的卷积核设计应运而生。

上面的公式仿佛还什么都看不出来,下面利用矩阵乘法进行变换,来一探究竟。

各符号的定义都同第五节。

式(5)所设计的卷积核其优点在于在于:

(1)卷积核只有 K个参数,一般 K远小于 n,参数的复杂度被大大降低了。

(2)矩阵变换后,神奇地发现不需要做特征分解了,直接用拉普拉斯矩阵 L进行变换。然而由于要计算 L^j,计算复杂度还是\mathcal{O}(n^3)

更直观地看, K=1就是对每个顶点上一阶neighbor的feature进行加权求和,如下图所示:

同理,K=2的情形如下图所示:

注:上图只是以一个顶点作为实例,GCN每一次卷积对所有的顶点都完成了图示的操作。

在GCN领域中,利用Chebyshev多项式作为卷积核是非常通用的形式。针对这部分内容,我专门整理了如下的文章。

上述的内容已经阐明了GCN的整体思路,其他的一些形式都是“万变不离其宗”。例如一文中的GCN形式,其实是二阶Chebyshev多项式推导出的特例。


在我最近发表的一篇论文中:就是用这种GCN形式作为基于有限检测器的路网规模交通流量估计问题(一种特殊的时空矩阵填充问题)的baseline,即原文4.2节部分的CGMC模型。感兴趣的朋友可以阅读如下的链接。


CNN中有两大核心思想:网络局部连接,卷积核参数共享。这两点内容的详细理解可以看我的这个回答。

那么我们不禁会联想:这两点在GCN中是怎样的呢?以下图的graph结构为例来探究一下。

第一代卷积核示意(需要放大观看)

这个时候,可以发现这个卷积核没有local的性质,因为该卷积核得到的运算矩阵在所有位置上都有非0元素。以第一个顶点为例,如果考虑一阶local关系的话,那么卷积核中第一行应该只有[1,1],[1,2],[1,5]这三个位置的元素非0。换句话说,这是一个global全连接的卷积核。

(b)如果是第二代GCN,根据式(5)当 K=0 卷积运算矩阵即为:

K=1 卷积运算矩阵即为:

K=2 卷积运算矩阵即为:

看一下图的邻接结构,卷积运算矩阵的非0元素都在localize的位置上。

相关内容比较多,我专门写了一篇文章,感兴趣的朋友可以阅读一下。


在我最近新发表的一篇论文中,就充分利用卷积模块,提出了结合图卷积(GCN)与 1\times1 卷积的全新GRU单元,进一步构建双向循环神经网络,来一体化解决路网级实时交通数据补全与预测问题,算例实验充分讨论了该模型对于提取时空数据中语义信息的有效性。

论文链接如下欢迎感兴趣的朋友下载阅读

如果这篇论文的内容对于大家的研究工作有帮助,也希望进行引用。


前面的内容,已经介绍了GCN的基本原理以及一些特性的理解。这章节的内容是我个人的部分研究工作,将GCN应用于大规模交通路网速度预测问题中,通过参数的可视化,给出了所提出深度学习模型的可解释性分析。感兴趣的朋友可以阅读一下我们的论文。

如果这个回答的内容对于大家的研究工作有帮助,也希望引用我们的论文。

前面的理论推导都是关于无向图,如果是有向图问题,最大的区别就是邻接矩阵会变成非对称矩阵,这个时候不能直接定义拉普利矩阵及其谱分解(拉普拉斯矩阵本身是定义在无向图上的)。这个时候有两条思路解决问题:

(a)要想保持理论上的完美,就需要重新定义图的邻接关系,保持对称性

提出利用Graph Motifs定义图的邻接关系。

(b)如果只是为了应用,有其他形式的GCN或者GAT可以处理有向图

简而言之,要想简单地处理有向图问题,那就换成一种逐顶点(node-wise)的运算方式,可以参考下面这篇文章中的3.2及3.3节。

也就是说本质上这些模型都可以认为是在重新定义了图的邻接关系后,再进行基本的卷积运算。

12 GCN的过度平滑问题

公式(5)给出的卷积核中,含有拉普拉斯矩阵的 j 次幂。j的取值较大时,GCN学习到的特征可能会存在过度平滑现象,即每个顶点的输出特征都十分相似。这个问题的原因及解决方法可以参考我下面的回答。

——————GCN的综述与论文合辑————————

——————动手教程————————

——————华丽的分割线————————

还写了一些关于机器学习比较热点的文章,大家有需要可以看看,一起学习进步!


(网经社讯)我觉得吧,创意有时像块大石头,很硬,那我们就把它敲碎、拆解、细化、单点击破。创意有时又像天上的云,很远,那我们就养好心中的灵感之花和一湾泉水。用芬芳、用倒影去吸引它。今天就从大咖们的案例出发,复盘它的打法,反推出他们的创意逻辑。

上篇,我研究了几年刷屏案例,从用户内在动机不同类型,匹配了不同的创意形式,简单说来就是回答了,比如:你想激发用户使命感,怎样的创意玩法可能更合适。

下篇,我们上更精细化的复盘分析,从大咖们的案例出发,复盘它的打法,反推出他们的创意逻辑。

  1. 网易刷屏H5背后的创意生产流程是什么?

  2. 小米的多个创意策划案例背后的共同点是什么?

  3. 杜蕾斯的创意有规律可循吗?

  4. 总结以上打法的共同特点。

一、网易刷屏H5案例复盘

网易非常牛逼,品效合一到什么程度?一个H5的成本在20万以下,创意到上线才花10天,带货销量达690万!

我们来拆解:网易大促活动H5《猪脑引发网易特大危机公关》

先上创意生产流程公式:创意SOP流程= 挖掘最大利益点+ 找寻创意契机+利用动机+ 创意黏性6大原则(简单+意外+可信+故事+情节+具体)+注重品效合一+先测试后传播

案例背景:网易有一个99元选16件的大促活动,如何把它包装得更有意思让用户知道这个信息,并且愿意传播?

关键词:促销(放大活动的最大利益点,并进行创意包装)。

寻找创意契机:在网上看到某公司吐槽运营出了个小失误,不小心把一个本来要抽5个人的抽奖活动抽了20个人,有了灵感。

得出主题:#网易小美的工作失误故事#《猪脑引发网易特大危机公关》

利用动机(厌恶损失+好奇心八卦心理):

对用户来说,失误造成的优惠比直接优惠更有吸引力,所以依葫芦画瓢,在H5里把本应是99元选6件,设置成了99元选16件,且员工在工作中犯错这件事很有代入感。

另外,用户心中带着八卦疑问:猪脑跟网易啥关系?为啥会引发公关危机?网易出了什么危机?

故事包装:创意黏性6大原则(简单+意外+可信+故事+情节+具体)

源自现实生活,整个团队开玩笑自称网易十美,其中一个男员工就把自己定位为小美。基于他创造了胖胖又可爱,经常迷糊犯错的“小美”男形象。

因为小美爱吃所以耽误了事

  • 网易猪厂梗:大家都叫网易是猪厂,就给小美加了爱吃猪脑要补脑的特质。

  • 丁老板表情包:网易内部很爱用丁老板表情包,H5里穿插了这个细节,很具体有趣:大家在刷屏丁老板表情包,小美不小心发了马云的表情包被踢出群。

如果把这个创意里面品牌的部分剥离,是否还能够独立存在?

如果创意中让用户传播的部分与自身品牌无关,而是靠外部的元素,如人物表情、或笑话,说明创意关键点和品牌利益点分离的。

  • 故事主线情节围绕品牌利益点展开,比如, 猪小美的故事主线情节是把搞错了99元选6还是选16;

  • 在故事情节中植入让用户可能去分享的点,抖包袱埋节奏。比如每隔多少分钟会有一个笑点、刺激点,类比吐槽大会中的包袱;

  • 引导购买:不浪费每一次与用户沟通、让用户行动的机会。每个H5结束都有引导购买、让用户行动的点。发红包或者链接跳转等,不能为了创意而创意。

  • 先在朋友圈进行测试:让公司内部同事先做个人分享,看转发率和参与度。

  • 社群推广:如果测试数据不错,在网易的各种产品社群进行推广,如考拉的购物达人社群、职场社群等。

  • 大号资源:当在朋友圈见到一个不太熟的人开始自主分享,说明H5有更火的潜质,开始找与H5调性相符的大号进行投放,一般找两三个。

以上为网易H5策划的一个创意周期,再复习一遍公式:

创意SOP流程= 挖掘最大利益点+ 找寻创意契机+利用动机+ 创意黏性6大原则(简单+意外+可信+故事+情节+具体)+注重品效合一+先测试后传播

二、小米的多个创意策划案例复盘

创意生产流程基本跟网易一致,小米的首席策划官强调的公式是:

性感的策划=兴奋点(跟用户讲什么,和用户有什么关系)+关键词(符合用户的什么动机)+惊喜感/话题性/炫耀感(通过怎样的方式让用户参与)

我们来拆解小米不同时期的3个案例:

案例一:#我是手机控#

背景:2010年小米还没什么名气,恰逢新手机发布前,需要做一个造势活动,目的是:发烧友愿意进行传播,让更多人至少听过小米。

结合资源:小米早期发烧友、小米社区平台、微博雷军个人影响力。

  • 关键词:需要与手机有关、大家平时会讨论和分享

  • 借势:10年正好是智能手机的换代潮,从传统的Symbian系统换到安卓系统,玩手机比较深度的人管自己叫“手机控”

  • 得出主题:#我是手机控#

利用动机/兴奋感(社交属性炫耀感+怀旧):

  1. 在餐桌上和朋友本身就会聊起,“你看我这个手机怎么样?……”,“想当年我第一个用的手机是什么……”,“这些年买手机花了这么多钱……”

  2. 你看看我一共用了这么多手机,花了这么多钱,很有炫耀感。

通过点鼠标选择,标记出用户每年用的手机——可同步输入关于每一个手机关于自己的故事(故事自带惊喜点)——形成用户定制的手机编年史——给用户打标签,属于什么级别的手机控,如菜鸟级别、骨灰级别、神马级别——可生成签名档,让用户自传播——加入社交功能:一键分享到新浪微博,当你找到跟你经历差不多的人,可以去微博去@他(互动带惊喜点)

比如我第一个手机是03年的小灵通,然后多少年我第二部手机、第三部手机是什么,还可以输入关于手机我自己的故事,比如说我用这部手机和暗恋的男生发短信,一条都不敢删。最后会形成一个个人的手机编年史

活动结果:约一周时间,活动沉淀了约100万用户。

案例二:#我们的150克青春#

背景:公司出了一个低配版手机,要什么包装、宣传?

产品卖点结合:11年小米推出降配版本手机,从双核,一经查实,将立刻删除涉嫌侵权内容。

我要回帖

更多关于 积化和差公式 的文章

 

随机推荐