Bob

Thinking will not overcome fear but action will.

京东笔试(8.6) 题型:选择题 * 30(部分多选,每题2分)+ 编程题 * 2(40分) 选择题涵盖的面比较广,从机器学习到深度学习,从C++到python,还有数据库相关的问题,但题目应该大都属于比较基础的概念。sql考察 select * from至少两次,python考察object,type等类相关概念至少两次。 编程题(1)最长公共字符串...

3D cls&seg Paper Reading

Linked Dynamic Graph CNN(ICRA) Contribution: 不同EdgeConv之间的跳层连接,或者说是dense连接,与DenseNet的思想较为相似. 重新设计了EdgeConv的卷积形式,从而能够解决旋转鲁棒性的问题,借此舍弃了T-N...

SO-Net

SO-Net detailed reading log. Intro SO-Net延续了PointNet系列的实验及写作方式,提出一种可以适用于目前多个点云处理任务(classification, retrieval, segmentation)的模型,与PointNet++类似,SO-Net是一个Hierarchical的模型结构,这也与我一直想要在点云上实现的CNN-like...

Basic Elements of Graph Signal Processing

对图深度这个方向关注了3个月左右的时间,从零开始,一点一点的将这个方向的基础知识摸清楚。我阅读了很多文献,有Bruna的SpectralNet, Bresson的ChebNet, Kipf的GCN, Hamilton的GraphSAGE,也关注了知乎问题如何理解Graph Convolutional Network,终于能够对这一领域有一个基础的入门。回过头再来看最开始关注的这篇文章,...

Graph Deep Learning

for beginners

NIPS Tutorial-Geometric Deep Learning on Graphs and Manifolds [2] 1. Intro 图的应用主要是针对非欧式空间,例如3D流体的分析,社区网络分割。 图是由什么构成的?首先是图的结构,指这些顶点与顶点之间相互连接的关系,其次,是顶点上的信息,拿社区网络分析的这张图为例子,每个顶点就代表一个用户主题,顶点之间连接...

理解PCA

从信息论出发

Preface 关于PCA,我们接触最多的是,从统计学的角度出发,去理解PCA,寻找使投影后数据间方差最大的主成分[1],经过求解可知,这些主成分就对应原始数据协方差矩阵的特征向量。而今天我要讲述的是从信息不确定度的角度出发,给出PCA的一种不同的求解方法。 基本思想 PCA在机器学习中被视为数据降维的一种实用工具,找到$d$条最能表征原始数据特征的正交向量,将原始数据集$ D\in \m...

How to interpreter PCA in a different way

Use project point to solve for PCA

under updating We mostly derivate PCA method with the idea of maximize data variance. If you have ever watched machine learning video of Dr.Andrew Ng, you’ll find that there’s another impress...

NMF

非负矩阵分解

NMF Non-negative Matrix Factorization 乍一听这个名字,我一度以为这是一些纯粹的线性代数知识,然而其实是一种机器学习的理论,类似于PCA。 NMF的用途 像PCA一样,NMF主要用来作数据降维。初始数据集为一$X \in R^{n\times p}$矩阵,我们需要找到一种非负映射关系$W \in R^{p\times d}$,(注意这里的 $W$ 矩阵中...

ubuntu科学上网

shadowsocks-libev 配置

Preface 这是我在ubuntu搭环境过程中一些常见问题的解决方案,每次搭环境的话,都会消耗很多时间在网络、软件这些上,有时候看别人的博客把问题解决了,下次遇到相同的问题,又忘记如何解决了。所以,我将自己的经验总结下来,如果能帮到别人那就更好了。 Main 1.首先要有一个代理服务器地址,密码,加密方式这些; 2.在ubuntu上可以通过shadowsocks的各种版本进行配置,...

L1正则化为什么会比L2正则化多零元素

L1正则化与L2正则化均是我们用来防止过拟合的工具,并且,我们通常情况下会认为,L1正则化具有特征选择的作用,也即是L1正则化更倾向于将一些无关特征权重罚为0。 我们在很多书上经常会看到下面这张图(图片引用自周志华老师机器学习),用来对比L1范数与L2范数在正则化过程中的区别,L1范数更倾向于与loss函数相交于菱形可行区域的定点,即是某些特征对应权重为0处,而对于L2范数则不具备这种性质...