profile
마케팅을 위한 인공지능 설계와 스타트업 Log
post-thumbnail

## 온라인 마케팅 가설 검증 테스트 결과 ##

한달간 진행했던 가설 검증 테스트를 종료했습니다. 결론부터 이야기하자면 테스트는 성공적이었습니다. 그런데 가설이 검증되었냐는 부분에 대해서는 보완이 필요하다는 결론입니다.우리는 시작할 때 아래의 가설을 세웠습니다.사람들은 그럴 듯한 허위 정보로 인한 피로도로 인해마케팅

2022년 3월 30일
·
0개의 댓글

ᄂ 🔴 [36 일차] : Flipped : logging 06

2022년 2월 8일
·
0개의 댓글

ᄂ 🔴 [33 일차] : Assignment

2022년 2월 8일
·
0개의 댓글

random.shuffle 순서 뒤섞기

시퀀스 순서 뒤섞기. (= 순서 랜덤 배치)※ 시퀀스 : String, List, Tuple 등.※ 원본이 바뀜. (※ 복사본 생성 후 변환 X)

2022년 2월 3일
·
0개의 댓글

math.floor(x)

x보다 작거나 같은, 가장 큰 정수인 x의 바닥값(floor)을 반환안의 값보다 작거나 같은, 가장 큰 정수

2022년 2월 3일
·
0개의 댓글

파이썬 내장함수 모음

내장함수

2022년 2월 3일
·
0개의 댓글

tf.io.gfile.glob() |()와일치하는 파일 목록을 반환

filenames = tf.io.gfile.glob(TRAIN_PATH)TRAIN_PATH에 있는 파일을 filenames 에 담자.

2022년 2월 3일
·
0개의 댓글
post-thumbnail

NAS + Docker + Django

Django 가이드 Django 공식 문서 Docker Ubuntu 20.04 SSH 접속 ssh [ID]@[IP] -p [port] sudo docker exec -it ubuntu /bin/bash cd mnt apt upgrade apt update apt in

2022년 1월 30일
·
0개의 댓글

데이터프레임에 Null 값이 있는지 확인하는 방법은 .isnull().sum()을 사용

데이터프레임에서 Null을 제거할 때는 dropna() 함수

2022년 1월 27일
·
0개의 댓글

중복샘플 제거 drop.duplicates()

중복샘플 제거 drop.duplicates()

2022년 1월 27일
·
0개의 댓글

ᄂ 😄 [20 일차] : Deep ML

정리 완료

2022년 1월 26일
·
0개의 댓글
post-thumbnail

로그 변환이 분포의 치우침을 줄어들게 하는 이유

로그함수의 특징0<x<1 범위에서는 기울기가 매우 가파릅니다. 즉, xx의 구간은 (0, 1)(0,1)로 매우 짧은 반면, yy의 구간은 (-\\infty, 0)(−∞,0)으로 매우 큽니다.따라서 0에 가깝게 모여있는 값들이 xx로 입력되면, 그 함수값인 y

2022년 1월 25일
·
0개의 댓글
post-thumbnail

2022년 지금까지 네가 아는 마케팅은 끝났다.

사전적의미 : 집단, 무리; 한 회분; (일괄 처리를 위해) 함께 묶다딥러닝에서 : 모델의 가중치를 한번 업데이트시킬 때 사용되는 샘플들의 묶음을 의미예시 \- 총 샘플 수: 1,000개배치사이즈 : 2020개의 샘플 단위마다 모델의 가중치를 한번씩 업데이트총 훈련

2022년 1월 25일
·
0개의 댓글
post-thumbnail

ᄂ 😄 [21 일차] : EXPLORATION 7. 인물사진을 만들기

얕은 피사계 심도(shallow depth of field : DOF) :셸로우 포커스(shallow focus) \- 배경을 흐리게 하는 기술배경이 있는 셀카를 촬영합니다. (배경과 사람의 거리가 약간 멀리 있으면 좋습니다.)시맨틱 세그멘테이션(Semantic se

2022년 1월 25일
·
0개의 댓글
post-thumbnail

🔴 Lecture 09. | CNN Architectures

본 글은 Hierachical Structure의 글쓰기 방식으로, 글의 전체적인 맥락을 파악하기 쉽도록 작성되었습니다. 또한 본 글은 CSF(Curation Service for Facilitation)로 인용된(참조된) 모든 출처는 생략합니다. <a href=

2022년 1월 21일
·
0개의 댓글

😄 Lecture 07. | Training Neural Networks II

본 글은 Hierachical Structure의 글쓰기 방식으로, 글의 전체적인 맥락을 파악하기 쉽도록 작성되었습니다. 또한 본 글은 CSF(Curation Service for Facilitation)로 인용된(참조된) 모든 출처는 생략합니다. <a href=

2022년 1월 21일
·
0개의 댓글
post-thumbnail

😄 Lecture 06. | Training Neural Networks I

본 글은 Hierachical Structure의 글쓰기 방식으로, 글의 전체적인 맥락을 파악하기 쉽도록 작성되었습니다. 또한 본 글은 CSF(Curation Service for Facilitation)로 인용된(참조된) 모든 출처는 생략합니다. <a href=

2022년 1월 21일
·
0개의 댓글