# Coursera

135개의 포스트
post-thumbnail

[DLS] Neural Networks and Deep Learning week 4

Deep Neural Network Deep L-layer Neural network NN of deep layers is better than NN of shallow layer Hidden layer를 깊이 쌓을수록 성능이 좋아진다는 점이 실험적으로 증명되어 왔

약 19시간 전
·
0개의 댓글
·
post-thumbnail

[DLS] Neural Networks and Deep Learning week 3

Notation은 다음과 같이 쓸 예정이다.Each of X training set : $x^{(i)}$\\2 layer NN에 대한 Architecture는 다음과 같다.Input layer와 Output layer 사이에 존재하는 layer를 Hidden laye

5일 전
·
0개의 댓글
·
post-thumbnail

[DLS] Neural Networks and Deep Learning week 2

귀여운 고양이 사진을 보고, 고양이인지(1) 아닌지(0) 판별하고 싶다.이미지는 RGB의 color channels을 갖기 때문에 다음과 같은 형태로 컴퓨터에게 전달된다. 이를 다음과 같은 형태로 squeeze하여, 12288짜리 features를 만들어 y로 mapp

2023년 12월 1일
·
0개의 댓글
·
post-thumbnail

[DLS] Neural Networks and Deep Learning week 1

Andrew said..AI는 Electricity와 같다.물류, 제조, 헬스, 소통.. etc. 모든 방면에서 새로운 패러다임의 전환을 일으킬 것What you'll learnNeural Networks and DeepLearningImproving Deep Neur

2023년 12월 1일
·
0개의 댓글
·
post-thumbnail

COURSERA - Unpaired Image to Image translation / CycleGAN / Applications / UNIT&MUNIT

이제는 두 이미지 간을 매핑시켜 차이점을 찾고, 적용시키는 방안을 진행합니다.예를 들어 paired generation은 아래와 같이 edge를 따서 생성할 수 있습니다.그에 반해 unpaired generation은 말을 얼룩말로 바꾸거나, 아래의 모네 그림을 실제로

2023년 11월 19일
·
0개의 댓글
·
post-thumbnail

COURSERA - Image to translation / Pix2Pix / Pix2Pix Advancements

흑백에서 컬러 이미지로 변환, segmentation map에서 실제 이미지로 변환, video to video, daty to night, edges to photopaired image to imge translation : 지정해준 pose를 수행하게 끔 생성 이

2023년 11월 18일
·
0개의 댓글
·
post-thumbnail

COURSERA - Application of GAN / Data Augmentation / GAN의 장단점 / GANs for Privacy

Image to Image1) GauGAN2) Super Resolution – sharpened image3) multimodal image to image translation ex) cat to dog4) Text to image5) Image and Landma

2023년 11월 16일
·
0개의 댓글
·
post-thumbnail

COURSERA - 1. Progressive growing / 2. Noise mapping network / 3. Adaptive instance normalization(AdaIN)

Progressive growing, Noise mapping network, Adaptive instance normalization(AdaIN)GAN Improvements1) Stability - Mode collapse미니 배치에서 편향이 있으면 이렇게 GAN에

2023년 11월 6일
·
0개의 댓글
·
post-thumbnail

COURSERA - Bias of GAN

GAN의 단점으로는 단방향이라는 점이다.즉, 이미지를 latent vector로 정확하게 보낼 수 없다는 것인데 왜 이것이 단점이 될까?우리는 단순히 이미지를 generate하는 것이 목적이 아닌가?=> 이에 대한 이유로는 이미지 editing을 실시할 수 있어지기 때

2023년 11월 6일
·
0개의 댓글
·
post-thumbnail

[입문] How the web works

웹 이해를 위한 웹 동작방식

2023년 11월 4일
·
0개의 댓글
·
post-thumbnail

COURSERA - Evaluation of GAN / FID / Inception Score / HYPE / Precision&Recall / PPL

GAN의 평가가 어려운 이유random noise를 통해 genenrate했는데, 어떻게 평가할 것인가?마치 명작을 그리는 법을 배우는 고급 예술가와 같다.옳고 그름이 명확히 없다.그렇다면 어떤 관점으로 평가하는 것이 좋을까?1) Fidelity생성 된 이미지의 품질,

2023년 10월 29일
·
0개의 댓글
·
post-thumbnail

COURSERA - ProteinGAN / ConditionalGAN / InfoGAN / Controllable GAN

이미지는 빨강, 녹색 또는 파랑(RGB) 색상의 강도를 나타내는 0에서 256까지의 정수로 표현됩니다. 단백질도 마찬가지로 문자를 사용하여 아래와 같이 20개의 고유한 아미노산을 나타냅니다: >MKYATLLEYAFQALKNSYAPYSRFRVGAALLSDDGEVVTGC

2023년 10월 27일
·
0개의 댓글
·
post-thumbnail

COURSERA - Wasserstein GAN(WGAN) with Gradient Penalty / SN-GAN

위와 같은 경우에는 Gradient를 계산하여 파라미터 업데이트를 잘 수행하게 된다. 하지만 이 경우와 같이 분포가 꽤나 떨어져 있다면, Vanishing Gradient문제로 초기 업데이트가 잘 되지 않게 된다. 이것이 Binary Cross Entropy Loss의

2023년 10월 27일
·
0개의 댓글
·
post-thumbnail

COURSERA - Deep Convolutional GAN (DCGAN) / Topologycal GAN(TGAN)

Deep Convolutional GAN (DCGAN) A to Z code making: https://github.com/KiHwanLee123/Coursera---GAN/blob/main/Deep%20Convolutional%20GAN%20(DCGAN).

2023년 10월 26일
·
0개의 댓글
·
post-thumbnail

COURSERA - GAN1

GAN1 A to Z code making: https://github.com/KiHwanLee123/Coursera---GAN/blob/main/GAN1.ipynb판별자와 생성자판별자 : P(Class|data)생성자 : 노이즈와 class를 받아 특정 fe

2023년 10월 26일
·
0개의 댓글
·

[coursera] Sequence Model - 1주차 Recurrent Neural Networks

coursera Sequence Model 1주차 Recurrent Neural Networks Quiz 1차 70/100 ![](https://

2023년 10월 20일
·
0개의 댓글
·
post-thumbnail

Basic recipe for machine learning

ML을 학습시킬 때 다음과 같은 순서로 진행할 수 있다.1\. 학습을 시킨다.2\. 편향이 높은지를 확인한다. 2-1. 편향이 높다면 더 높은 네트워크를 사용하거나 오래 학습시켜서 잘 학습시켜지거나 최소한 오버피팅이 되도록 위 과정을 반복한다.3\. 편향이 높지 않다면

2023년 9월 15일
·
0개의 댓글
·
post-thumbnail

Bias / Variance

bias와 variance는 모델의 학습 상태를 나타낼 수 있는 좋은 척도이다.데이터의 분포에 비하여 모델이 너무 간단한 경우, underfit이 발생한 경우를 말한다.모델의 복잡도가 데이터 분포보다 커서 데이터를 overfitting 시키는 경우를 말한다.Bias

2023년 9월 15일
·
0개의 댓글
·
post-thumbnail

Train/Dev/Test sets

신경망을 학습할 때 많은 선택을 해야한다.layershidden unitslearning ratesactivation functions첫 번째 시도에서 이 모든것을 한번에 정확하게 맞추기란 굉장히 어렵다.따라서 구체적인 아이디어(방법)을 제시하고 이를 학습에 적용하여

2023년 9월 14일
·
0개의 댓글
·
post-thumbnail

Coursera lecture note (Notation)

이번엔, 이 강좌에서 반드시 알아야 할 주요 표기법들에 대해 소개하겠습니다. 각 표기법은 기계 학습에서 중요한 역할을 하는 개념들을 나타냅니다. (x, y)하나의 훈련 예제(training example)는 (x, y)로 표현되며,mm은 훈련 세트(training se

2023년 9월 6일
·
0개의 댓글
·