PyTorch는 Facebook AI Research가 개발한 오픈소스 머신러닝 라이브러리로, 동적 계산 그래프의 장점을 활용합니다. PyTorch는 직관적인 워크플로우와 강력한 기능 덕분에 연구자들과 개발자들에게 인기가 많습니다.주요 특징동적 계산 그래프: Tenso
Frequentist: 확률을 반복 시행에서 사건이 발생하는 상대적 빈도로 정의. 데이터만을 이용해 추정을 수행하며, 사전 정보(Prior)를 고려하지 않습니다.Bayesian: 확률을 주관적 믿음으로 정의. 데이터와 사전 정보(Prior)를 결합하여 추정을 수행합니다
출처: Top 50 Python Programming Interview Questions With Answers파이썬 프로그래밍 관련 인터뷰 질문 모음을 정리하였습니다.답변: 리스트는 순서를 유지하고 중복을 허용하지만, 세트는 순서가 없고 중복을 허용하지 않습니다.답변
출처: Python Interview Questions for Experienced with PDF면접을 준비하며, 파이썬에 대한 질문이 많은데 기초적인 거라도 대답하기에 어려움을 느껴서 위 링크를 바탕으로 기출 질문을 정리하였습니다. 번역하고 제가 잘 모르는 것은 추
Paper link: arxiv.org/abs/2307.11978Code link: github.com/CEWu/PTNL이 논문은 실험으로 결과를 입증하고 설득하는 형식이라서 table을 통해 설명을 이어갈 것 같습니다.이걸 일주일 동안 붙잡으며 읽은 결과, 복잡한 a
Paper: LINKLarge-scale contrastive vision-language pre-training은 vision representation learning의 많이 발전되어 왔습니다. 전통적인 visual system은 고정된 discrete labels
Abstract Keyword: only single text condition, patch-wise text-image matching loss, CLIP(pre-trained text-image embedding model) 원래 존재하는 스타일 트랜스퍼 방법
강의 자료 출처: \[CS224W Lecture 7]GNN Layer = Message + Aggregation이 관점에서 다른 인스턴스화GCN, GraphSAGE, GAT, …Connect GNN layers into a GNNStack layers sequentia
이미지 출처: 파이썬 코딩 도장시퀀스를 결과로 만들어내는 함수를 만들 때 가장 간단한 방법은 원소들이 모인 리스트를 반환하는 것입니다.예로 문자열에서 찾은 단어의 인덱스를 반환하고 싶을 떄, append 메서드를 사용해 리스트에 결과를 추가하고 함수 마지막에 리스트를
컴프리헨션에서 같은 계산을 위해 여러 위치에서 공유하는 경우가 흔합니다.아래의 예씨는 회사에서 주문을 관리하기 위한 프로그램이고 재고를 확인하는 과정입니다.{'나사못': 4, '나비너트': 1}{'나사못': 4, '나비너트': 1}앞의 코드 보다는 짧으나 get_bat
강의 자료 출처: CS224W Lecture6노드 임베딩은 Lecture 3에서 다뤘던 내용입니다. 노드를 d-차원 임베딩으로 매핑합니다. 이는 그래프에서 비슷한 노드들이 서로 가깝게 임베딩 된다는 걸 의미합니다.목표는 노드 $u,v$의 유사도를 계산하는 것이었고, 이
강의 자료 출처: CS224W Lecture 5정리는 위 출처의 자료를 바탕으로 모든 페이지를 옮겨 정리한 것입니다. 그래프를 처음 공부해서 잘못 이해한 내용이 있을 수 있습니다. 오류를 댓글로 알려주시면 수정하겠습니다. 감사합니다.Message Passing and
강의 자료 출처: CS224W Lecture 3정리는 위 출처의 자료를 바탕으로 모든 페이지를 옮겨 정리한 것입니다. 그래프를 처음 공부해서 잘못 이해한 내용이 있을 수 있습니다. 오류를 댓글로 알려주시면 수정하겠습니다. 감사합니다.Node EmbeddingsEncod
함수에 적용할 수 있는 데코레이터(decorator)를 정의할 수 있음자신이 감싸고 있는 함수의 입력 인자, 반환 값, 오류에 접근 가능→ 함수의 의미 강화 또는 디버깅, 등록 등에 유용하게 사용됨trace() 함수는 함수를 인자로 받으며, 내부에 wrapper()
참고 출처\[Paper Review] Neural Machine Translation by Jointly Learning to Align and Translate15\. 어텐션 메커니즘 (Attention Mechanism)\[NLP | 논문리뷰] NEURAL MACH
비지도 학습이란 알고 있는 출력값이나 정보 없이 학습 알고리즘을 가르쳐야 하는 모든 종류의 머신러닝을 의미학습 알고리즘은 입력 데이터만으로 데이터에서 지식을 추출할 수 있어야 함클러스터링(clustering)차원 압축(dimensionality reduction)이상
The kernel calculates the inner product of two vectors in a different space (preferably without explicitly representing the two vectors in the differe
Optimization problems?최적화 문제(optimization problems)란 여러 개의 선택 가능한 후보 중에서 최적의 해(optimial value)를 찾는 것 또는 최적해의 근접한 값을 찾는 문제를 일컫습니다.머신러닝 분야에서는 이를 비용 함수(c
Convex optimization problem: f(x)가 convex이고 feasible set이 convex이다.$<convex \\ function>$$<convex \\ set>$local minimum이 global minimum이다.
1장부터 3장까지는 머신러닝 모델과 훈련 알고리즘을 살펴보았습니다. 챕터 4는 모델이 어떻게 구현되고 작동되는지를 살펴보는 단원입니다. 모델이 어떻게 작동하는지를 알면 적절한 모델 선택 올바른 훈련 알고리즘 작업에 맞는 좋은 하이퍼 파라미터