欢迎来到Zgxh的博客
联邦学习 联邦学习
联邦学习 Federated Learning联邦学习考虑的是有很多个客户端,数据是分片的,每个客户端持有不同的数据,形成一种分布式的结构,联邦学习的目的是训练一个集中模型,其中每个客户端局部地更新它自己所持有的数据,然后把数据合并到集中模
2021-04-27
图嵌入 图嵌入
1. Graph Embedding & Node Embedding 综述图嵌入是把高维的图数据映射为低维稠密向量的过程。 图嵌入分为结点嵌入和图嵌入: 结点嵌入:把高维结点嵌入到低维空间中,用于结点分类、结点相似度判断、结点分
2021-04-19
流形学习+流形学习2.0 流形学习+流形学习2.0
流形学习与流形学习2.01. 流形学习流形学习也是降维的一种,对应非线性降维。流形学习的输入数据在全局上是不满足欧几里得结构的,但在局部上满足欧式空间的性质。 在三维球面上,利用极坐标表示的坐标系可以通过r、$\theta$、$\phi$三
2021-04-16
Tex与论文技巧 Tex与论文技巧
tex 引文引用网址首先tex文件导包 \usepackage{url} 其次bib文件中写入 @Misc{timmurphy.org, author = {Murphy, Timothy I}, title = {Line Spacing
2020-04-24
GNN需要解决的关键问题 GNN需要解决的关键问题
“图神经网络在线研讨会2020” 笔记1. 从同质到异质目前很多图神经网络主要是基于同质信息网络,同质信息网络只有一种类型的节点和边; 在实际应用中,会存在大量由不同节点和边构成的交互系统,例如文献数据、电影数据、以及社交网络知识图谱等,在
2020-04-16
可视化 可视化
从SNE到t-SNEt-SNE 算法对每个数据点近邻的分布进行建模,其中近邻是指相互靠近数据点的集合。在原始高维空间中,我们将高维空间建模为高斯分布,而在二维输出空间中,我们可以将其建模为 t 分布。该过程的目标是找到将高维空间映射到二维空
2020-04-06
GCN的原理 GCN的原理
GCN的由来和最初的原理 Graph上的拉普拉斯矩阵L:$$L = D - A$$ 其中D是度矩阵,A是邻接矩阵。对L进行对称归一化:$$L = I - D^{-1/2} A D^{-1/2} $$ 拉普拉斯矩阵具有良好的性质,它是对称半正
2020-02-08
CNN中的各种卷积 CNN中的各种卷积
深度学习中的各种卷积 3D卷积 3D 过滤器可以在所有三个方向(图像的高度、宽度、通道)上移动。在每个位置,逐元素的乘法和加法都会提供一个数值。因为过滤器是滑过一个 3D 空间,所以输出数值也按 3D 空间排布。也就是说输出是一个 3D
2020-02-08