# CS224W
[CS224W] 9. Theory of Graph Neural Networks
GNN은 Node, Graph Structure을 어떻게 구별하는가.Maximally expressive GNN model : 표현력을 어디서 극대화할 수 있을까.각 모델마다 다른 Propagation, Aggregation, Transfomation 방법론을 가지고
[CS224W] 6. Graph Neural Network
그래프에서 유사한 노드들이 함수 f 를 거쳐 d 차원으로 임베딩 되었을 때, 임베딩 공간 내에서 가까이 위치하도록 만드는 것 Encoder : 각 노드를 저차원 벡터로 매핑Similarity fuction : 원래 그래프 내에서의 노드 간 유사도와 임베딩 공간에서 노드

[CS224W] 5. Message Passing and Node Classification
Semi supervised node classification : 라벨링된 노드와 그렇지 않은 노드를 동시에 사용하는 분류문제 Message Passing 방법을 통해 노드 간의 correlation (dependencies) 을 가정하여 레이블을 예측한다. 비슷한

[CS224W] 4. PageRank
r은 중요도 벡터각 노드는 도착하는 링크의 합으로 중요도를 가진다.각 out link는 도착하는 노드로의 투표로 간주한다.각 out link는 출발하는 노드의 중요도 / 출발하는 노드의 out link 수로 투표수를 가지게 된다.Rank vector r : An en

[CS224W] 3. Node Embeddings
입력값으로 주어지는 그래프의 각 노드가 임의의 인코더를 통과하여 임베딩 공간에 위치하는 벡터로 바뀌는 과정.이 과정을 통해 그래프에서 유사한 노드들이 임베딩 공간에서도 근처에 있도록 맵핑한다.Incoder가 Node를 Embedding space로 매핑하여 벡터를 생성

[CS224W] 2. Traditional Methods for Machine Learning in Graphs
🔨 Machine Learning Tasks Node-level prediction Link-level prediction Graph-level prediction 🔨 Traditional ML Pipleline >- Design features for nodes

[CS224W] 1. Choice of Graph Representation
Object N : Nodes(Vertices)Interactions E : Links, EdgesSystem G(N,E) : Network, GraphPossible optionsWeight (ex. frequency of communication)Ranking (e

[CS224W] 7. Graph Neural Networks 2: Design Space
강의 자료 출처: \[CS224W Lecture 7]GNN Layer = Message + Aggregation이 관점에서 다른 인스턴스화GCN, GraphSAGE, GAT, …Connect GNN layers into a GNNStack layers sequentia

[CS224W] 6. Graph Neural Networks 1: GNN Model
강의 자료 출처: CS224W Lecture6노드 임베딩은 Lecture 3에서 다뤘던 내용입니다. 노드를 d-차원 임베딩으로 매핑합니다. 이는 그래프에서 비슷한 노드들이 서로 가깝게 임베딩 된다는 걸 의미합니다.목표는 노드 $u,v$의 유사도를 계산하는 것이었고, 이