
부트캠프 첫 번째 날이다. 프리코스로 배운 내용이었는데도 막상 실습하려니 기억이 잘 나지 않았다. 부트캠프인데도 다들 개발 경험이 있어서 실력이 좋다. 내가 제일 바닥인 느낌. 그래도 꾸준히 하다 보면 되겠지! 여러 번 반복해서 내 것으로 만들어야겠다! 프리코스
부트캠프 두 번째 날이다. 클래스의 데코레이터에 대해 다뤘다. 대부분의 시간은 문제를 풀었다. 3의 배수를 구하는 첫 번째 문제부터 30분 넘게 걸렸다. 도저히 모르겠어서 중간중간 GPT찬스를 썼다. 이틀 동간 배운 내용을 주말에 미친듯이 복습해야겠다. 두 시간 넘도
오늘은 계속 문제만 풀었다. 사이트에 있던 문제를 대부분 풀고 미션으로 넘어갔다. 아직 객체와 클래스 문제는 시작하지도 못했는데,,, 다음 주에 지옥이 펼쳐질 것 같다. 그래도 이틀 사이에 장족의 발전을 했다. 프리코스 때 1시간 걸렸던 문제를 3분 만에 풀었다. 다음
라이브러리(numpy, matplotlib, pandas)의 기초를 배웠다. 파이썬 따라가기도 힘든데 라이브러리까지 하려니 머리가 터질 것 같다. 오늘 교육량이 엄청나다. 지난주 목&금 합친 것의 2배 이상 되는 느낌... 주말에 객체와 클래스를 어느 정도 복습해 두어
numpy, matplotlib, pandas에 아직 적응하지도 못했는데 또 새로운 라이브러리를 배웠다. seaborn은 matplotlib과 비슷한 것 같은데, 조금 더 예쁜 그래프를 뽑아낼 수 있는 툴인 것 같다. 아직 정확한 차이점은 모르겠다. 그나저나 4개 툴을
장담컨대 인간의 적응력은 상상을 초월한다. 오늘은 어제와 비슷한 내용을 했다. 어제는 고개를 절레절레하며 대부분 포기했는데, 한숨 자고 일어났더니 갑자기 눈에 보이기 시작한다. 강사님이 중간마다 내주는 문제도 꽤 풀었다. 이게 복습의 힘인가! 블로그를 작성하며 거의 5
드디어 데이터 전처리다. 어려운데 재밌다. 엑셀 피벗테이블 만들기 위해 데이터 정제하는 것과 비슷한 작업이다. 아직 명령어가 익숙하지 않아서 머리 긁적이는 구간이 많지만 나중에 익숙해지면 훨씬 재밌어질 것 같다. 나 사실 데이터 엔지니어 체질인가...? 그나저나 여차저
처음으로 다뤄보는 빅데이터. 행이 무려 십만 줄이 넘는다. 열도 많아서 프로그램에 전부 나타나지도 않는다. 근데 참 신기하게도 첫 전처리 미션이 내가 늘 보던 호텔 데이터다. 오늘 하루에 다 처리하진 못했지만, 그래도 즐거운 마음으로 데이터를 들여다볼 수 있었다. 이런
몇 문제 풀지 않은 것 같은데 시간이 빨리 지나갔다. 그래도 코드를 한 자씩 적어가며 문제를 푸니 내 것이 된 느낌이다! 호텔 데이터 전처리 할 때는 구글링 하면서 코드를 복붙 했기에 뭔가 기억에서 날아가는 느낌이었는데 말이지... 기초를 다시 한번 잡고 넘어간 하루였
Q & A 요약 > Q1. 선형대수학이란 어떤 학문이며, 왜 머신러닝에 필요한지 설명해보세요. A1. 선형대수학은 방정식을 다루는 학문으로, 많은 데이터를 다루는 머신러닝에 필수적이다. > Q2. EDA(Exploratory Data Analysis)란 무엇인가요?
지난주 금요일에 이어 호텔 데이터를 다뤘다. 전처리는 금요일에 끝내서 오늘은 데이터를 시각화하며 상관관계와 인사이트를 도출하는 것에 집중했다. 호텔에서 일하며 얻은 지식이 꽤나 도움이 됐다. 전처리 할 땐 과연 내가 유의미한 결과를 얻을 수 있을까 걱정했는데, 시각화해
seaborn으로 다양한 셋팅을 할 수 있다는 사실을 알게 됐다. 서브플롯에 서브타이틀까지 설정하니 꽤나 근사한 그래프가 나온다. 가독성은 더할 나위 없이 좋다. 역시 코드, 데이터 프레임, 그래프 뭐가 되었든 가독성이 가장 중요하다. 나만 이해할 수 있는 정보는 결코
수학 지식이 중학교에 머물러 있다 보니 선형대수학 이론을 도무지 이해할 수가 없다. 시그마, 세타, 로그, 람다 등 태어나서 처음 들어본다. 오죽하면 수업 중간중간 나오는 파이썬 코드가 반가울 지경이다. 다 이해하고 넘어가기보다는 추후 실습을 하며 그때그때 참고하는 식
지옥 같은 하루. 아무래도 이 포스팅은 두고두고 찾아볼 것 같다. 제목에 별도 달았음. >학습시간 09:00~01:00(당일16H/누적185H) ◆ 오늘 깨달은 것 무엇을 깨달았는지 기억나지 않을 때도 있다는 것을 깨달았다. ◆ sklearn ◆ 지도 학습 → 관
아무것도 모르는 상태에서 뭔가 하려니까 아무것도 못하겠다. >학습시간 09:00~01:00(당일16H/누적201H) ◆ 오늘 깨달은 것 나는 아무것도 못한다는 것을 깨달았다. ◆ 자전거 대여 데이터 머신러닝 전제는 아래와 같다. 나는 자전거 대여 시스템의 운영
Q & A 요약 > Q1. 지도 학습과 비지도 학습의 차이는 무엇인가요? A1. y값(정답) 제공 유무의 차이다. 지도 학습은 X와 y의 관계를 함께 알려주고, 비지도 학습은 X와 y의 관계를 스스로 형성한다. > Q2. 손실 함수(loss function)란 무엇
많은 것을 깨달은 하루. 부트캠프 미션을 도저히 해결할 수가 없어서 쉬운 것부터 다시 했다. 우여곡절 끝에 타이타닉 생존자 예측 모델을 성공적으로 만들었다. 내가 왜 미션을 못했는지 대충 짐작 가는 부분이 있다. 딱 기다려라 곧 풀어주마. >학습시간 18:00~02:
어제 분류 모델에 이어 회귀 모델까지 성공적으로 구현했다. 차근차근해보니 내가 순서를 잘못 공부했다는 것을 알게 됐다. 내일은 다시 미션 문제를 풀어봐야겠다.학습시간 22:00~02:00(당일4H/누적214H)라쏘, 릿지, 엘라스틱넷은 선형회귀를 기본적으로 포함하고 있
일단 지도 학습의 전반적인 단계는 파악한 것 같다. 모델 구현하는 원리도 이제 감이 잡힌다. 관건은 최적화인데, 이건 하다 보면 되리라 믿는다. >학습시간 09:00~00:00(당일15H/누적229H) ◆ 오늘 깨달은 것 데이터 스플릿 할 때는 Xtrain, ytr
돌아온 지옥의 이론 시간. 그래도 모델을 구현해 본 후에 새로운 모델을 배우니 전반적인 흐름은 눈에 보인다. 문제는 수학 공식에 나오는 기호들인데,,, 이건 날 잡고 한번 파긴 해야겠다. >학습시간 09:00~01:00(당일16H/누적245H) ◆ 오늘의 깨달음 트
데이터 전처리는 하면 할수록 실력이 느는 것 같다. 함수로 반복작업을 자동화 하는 게 재밌는데, 시간이 오래 걸려서 문제다. >학습시간 09:00~01:00(당일16H/누적257H) ◆ 오늘의 깨달음 레이블 인코딩(map)과 원핫 인코딩(get_dummies)은 다
여러 모델을 구현하고 튜닝하면서 문법적인 실력이 많이 늘었다. 아직 부족한 게 많은 건 사실이지만, 그래도 이제 머신러닝의 전반적인 진행 순서가 머릿속에 그려진다. 불과 3주 만에 다른 사람이 된 것 같다. >학습시간 09:00~01:00(당일16H/누적273H)
Q & A 요약 > Q1. 결정 트리의 장점과 단점은 무엇인가요? A1. 결정 트리는 직관적이고 해석이 쉬우며 시각화가 용이하다는 장점이 있다. 하지만 과적합에 민감하고, 작은 데이터 변화에도 트리 구조가 크게 달라질 수 있다는 단점이 있다. 따라서 단독보다는 앙상블
지도학습을 끝내고 비지도학습을 배우니 그래도 할만한 것 같다. 비지도학습은 시각화를 통해 의미를 찾아내는 것이 중요한 듯하다. >학습시간 09:00~01:00(당일16H/누적290H) ◆ 오늘의 깨달음 클러스터링은 원핫인코딩 & 스케일링을 해야한다. 차원축소는 데
머신러닝은 몸풀기였다.학습시간 09:00~02:00(당일17H/누적307H)뇌의 신경세포(뉴런)를 모방하여 정보를 전달하고 처리인공신경망(Artificial Neural Network)을 여러 층으로 쌓아올린 모델고차원 데이터에서 패턴을 비선형 방식으로 학습하는 체계이
강의 커리큘럼이 너무 혹독하다. 퍼셉트론에 익숙해지지도 않았는데 바로 이미지 처리라니... 멘탈 꽉 잡고 버티자...학습시간 09:00~01:00(당일16H/누적323H)완전 연결층 없이 모든 레이어를 합성곱(Conv)으로 구성한 신경망이미지의 각 픽셀에 대한 예측이
Q1. 딥러닝과 머신러닝 간의 포함관계에 대해 설명해주세요.A1. 딥러닝은 머신러닝의 한 방법이다. 인공신경망을 기반으로 복잡한 패턴과 표현을 학습한다. 빅데이터와 높은 연산 자원을 필요로 하지만, 그만큼 성능이 좋다.Q2. 딥러닝의 성능향상을 위해 고려하는 하이퍼파라
파이썬을 처음부터 다시 배우는 기분이다. 이걸로 당장 모델을 구현해야 한다니,,, 숨을 쉴 수가 없다 ㅠㅠ >학습시간 09:00~01:00(당일16H/누적339H) ◆ 학습내용 1. PyTorch (1) 특징 오픈소스 딥러닝 프레임워크 Facebook AI Re
오늘 포스팅은 코드로 대체... >학습시간 09:00~01:00(당일16H/누적355H) ◆ 학습내용 1. FCN 기본 모델 구현 2. 코드 설명 (1) 데이터 로드 (2) Dataset Class 생성 (3) 데이터 분할 (4) 스케일링 (5) 데이터셋
오늘 포스팅도 코드로 대체... ㅠㅠ 학습시간 09:00~02:00(당일17H/누적373H) ◆ 학습내용 DNN 모델로 FashionMNIST 이미지 분류 1. 코드 가끔 틀린다. 근데 저건 내가 봐도 모르겠는데...? 2. 코드 설명 (1). 데이터 로드
딥러닝 기본 모델을 몇 개 해보니까 이제 흐름이 보인다. 데이터 스플릿, 모델 생성, 학습, 평가는 코드가 다 거기서 거기다. 파일 유형에 따라 전처리와 시각화 방법만 달라지는 것 같다.
오토인코더 배우긴 했는데 이걸 어디다 써먹어야할지 잘 모르겠다...
같은 기능을 하는 함수가 생각보다 많은 것 같다. 헷갈리지 않도록 조심해야지! >학습시간 09:00~02:00(당일17H/누적424H) ◆ 오늘의 깨달음 1. CNN 모델에 관하여 MLP = CNN의 Fully Connected(FC) 부분 LeNet = CNN의
갑자기 난이도가 이렇게 올라가면 어떡합니까 ㅠㅠ
많은 진전이 있었던 하루. 꿈에 그리던 Cloud GPU를 손에 넣었다.
◆ Q & A 요약 > Q1. 딥러닝 프레임워크인 PyTorch와 TensorFlow를 비교해보세요. A1. PyTorch는 페이스북에서 TensorFlow는 구글에서 만들었다. PyTorch는 "코드를 짜면서 바로바로 실행하는 방식(동적 그래프)"이기에, 직관적이고 디버깅에 유리하다는 장점이 있다. 하지만 대규모 서비스에는 다소 부족할 수 있다. Tens...
드디어 결과물이 나왔다. 하지만 아직 내 마음에 들진 않는다. 어떻게 해야 더 잘할 수 있을까. 생각과 고민의 연속인 하루다.
내가 이걸 해냈다니 도저히 믿기지 않는다 ㅠㅠ 역시 노력은 배신하지 않는다! >학습시간 09:00~02:00(당일17H/누적496H) ◆ 학습내용 논문 링크: https://link.springer.com/chapter/10.1007/978-3-319-24574-
일주일간 진짜진짜진짜 힘들었다. 그래도 이번 미션 덕분에 여러 방면으로 비약적인 성장을 했다. 내일부터는 심화과정에 들어간다고 한다. 다시 화이팅 해보자!!! print("화이팅!") >학습시간 09:00~02:00(당일17H/누적513H) ◆ 학습내용 지금까지
컴퓨터 비전의 역사가 생각보다 깊은 것 같다. 신기하게도 이틀 전 U-Net 논문에서 봤던 스킵커넥션과 보틀넥을 다뤘다. 논문을 보고 모델을 구현해 보니까 다른 논문도 살짝 감이 오는 것 같다. 재밌네 이거!! >학습시간 09:00~02:00(당일17H/누적530H)
학습이 끝난 모델의 일부를 내가 사용할 수 있다니,, 인공지능의 세계는 알면 알수록 신기하다. >학습시간 09:00~02:00(당일17H/누적547H) ◆ 오늘의 깨달음 전이학습은 아래 코드가 핵심인 것 같다. ◆ 학습내용 1. 새로운 함수 (1) 데이터셋 정
◆ Q & A 요약 > Q1. CNN을 구성하는 각 레이어의 역할에 대해 설명해보세요. A1. CNN을 구성하는 레이어는 크게 합성곱(이미지 특징 추출), 풀링(이미지 크기 축소), 정규화(과적합 방지), 활성화 함수(비선형성 부여), 전결합(예측) 계열로 나뉜다. 주어진 테스크에 따라 사용하는 레이어 종류와 개수가 다르다. > Q2. 오토 인코더가 적...
전이학습의 장점은 내가 직접 모델을 만들 필요가 없다는 것이다. 근데 그래서인지 뭔가 느낌이 묘하다. 살짝 뭐랄까, 3분 카레 돌린 다음에 내가 카레 요리했다고 우기는 느낌이다.학습시간 16:00~02:00(당일10H/누적557H)ResNet18 모델에 CIFAR100
드디어 새로운 미션 시작..! 과연 이번엔 얼마나 성장할 수 있을 것인가!! >학습시간 09:00~02:00(당일17H/누적574H) ◆ 학습내용 흉부 X-Ray 사진을 바탕으로 폐렴 환자 분류 모델 생성 [ 필요사항 ] 데이터 증강 기법 사용 Transfe
오늘도 많이 건졌다. 확실히 인공지능 개발자는 논문을 많이 읽어야 성장하는 것 같다. >학습시간 09:00~02:00(당일17H/누적591H) ◆ 학습내용 딥러닝으로 폐렴 환자 자동 분류하기. 어제(1~5번)에 이어서 6번부터 진행! 6. 기본모델 평가 어제
확실히 Transfer Learning을 하니까 분류가 잘 된다. 더 좋은 모델이 많이 생겼으면 좋겠다!! >학습시간 09:00~02:00(당일17H/누적608H) ◆ 학습내용 딥러닝으로 폐렴 환자 자동 분류 어제(6~8번)에 이어 9번 할 차례다. 9. 모델 평가 (1) 가중치 로드 가중치들이 잘자고 있어났냐며 나를 반겨준다. 제발 아무 문...
와,,, 오랜만에 하니까 진짜 어렵다. >학습시간 10:00~18:00(당일8H/누적616H) ◆ 학습내용 데이터 프레임 복습 문제 1 >loan_df라는 DataFrame에서 각 컬럼의 데이터 타입과 결측치가 아닌 값의 개수를 확인하려면 어떤 코드를 작성해야 하는지 고르세요. >loan_df라는 DataFrame의 통계 정보를 요약해서 보려면 어...
◆ Q & A 요약 > Q1. 이미지를 모델에 입력하기 전에 리사이징(Resizing)과 정규화(Normalization)를 하는 이유는 무엇인가요? A1. 리사이징은 입력 이미지를 모델이 요구하는 크기로 맞추거나, 폴더 내 이미지 사이즈가 각기 다를 때 이를 통일하
지금까지 한 CNN은 튜토리얼 수준이었구나... >학습시간 09:00~02:00(당일17H/누적633H) ◆ 학습내용 1. Object Detection이란? (1) 종류 Classification: 이미지 전체 또는 특정 영역에 대해 객체의 클래스(정체)를 판
객체 탐지 진짜 어렵다... 이 또한 극복해야 할 벽이겠지! 넘어보자 화이팅!! >학습시간 09:00~02:00(당일17H/누적650H) ◆ 학습내용 1. 핵심 용어 | 용어 | 설명 | | --- | --- | | Anchor Box | 정해진 크기/비율을 갖는 기준 박스. 예측은 이 anchor를 기준으로 오프셋 회귀함. | | Confidenc...
헬퍼 클래스 만드는데만 하루종일 걸렸다. 이게 맞나... >학습시간 09:00~02:00(당일17H/누적667H) ◆ 학습내용 SSD 모델을 활용하여 개와 고양이의 얼굴(Face) 영역을 감지하는 Object Detection 작업을 수행 1. 계획 객체탐지
에러 고치다가 하루가 끝났다... >학습시간 09:00~02:00(당일17H/누적684H) ◆ 학습내용 SSD 모델로 강아지 고양이 얼굴 탐지하기. 어제(1번~5번)에 이어 6번 부터 진행! 6. 데이터 스플릿 어제 만든 파서 클래스와 데이터셋 클래스를 이용해 스플릿했다. 평소와 다른 점은 람다 함수를 사용했다는 것. 람다는 약간 생소했는데,...
이번 주말은 SSD와 친해지는 시간이다. >학습시간 20:00~02:00(당일6H/누적690H) ◆ 학습내용 SSD 모델로 강아지 고양이 얼굴 탐지하기. 어제(6번~10번)에 이어 11번 부터 진행! 11. 모델 학습 (1) 학습 전처리 드디어 학습을 돌릴 차례다. 학습 코드를 만들기 전에, 어떤 레이어를 프리즈할 것인지부터 확인해야 한다. ...
지금까지의 미션 중 가장 복잡하고 이해하기 어려운 모델이었다. 이번 벽도 어찌어찌 넘은 것 같다... ㅠㅠ >학습시간 11:00~21:00(당일10H/누적700H) ◆ 학습내용 SSD 300 모델로 강아지 고양이 얼굴 탐지하기 어제 11번에 이어 12번부터 시작
◆ Q & A 요약 > Q1. YOLO(You Only Look Once) 모델의 주요 특징과 장점은 무엇인가요? A1. 1-stage object detector로, 객체의 위치와 클래스를 동시에 예측하는 모델이다. 상대적으로 FPS가 높아 실시간 탐지에 유리하다는
큰일이다. 이제 막 탐지 끝났는데 더 어려워진다. >학습시간 09:00~02:00(당일17H/누적717H) ◆ 학습내용 1. Image Segmentation Object Detection은 "객체 단위"로 경계 상자를 찾아내고 분류함 → 예: ‘사람’이 어디
헬퍼 클래스 만들기에 시간이 너무 많이 든다. 어쩌면 좋지?? >학습시간 09:00~02:00(당일17H/누적734H) ◆ 학습내용 U-Net으로 축구 경기 객체 세분화. 요청사항: U-Net 모델 사용 Semantic Segmentation 작업 수행 데이터셋
커리큘럼이 약간 잘못 짜여진 것 같다. 진득히 공부할 시간이 없네 이거... >학습시간 09:00~02:00(당일17H/누적751H) ◆ 학습내용 U-Net으로 축구 경기 객체 분할하기 어제(1번~6번)에 이해 7번 시작! 7. 데이터셋 클래스 생성 클래스
이미지 생성이 간단한 작업이 아니었구나. 지금까지도 산 넘어 산이었는데, 엄청 큰 산을 만난 것 같다. >학습시간 09:00~02:00(당일17H/누적768H) ◆ 학습내용 1. Generative Modeling (1) 생성 모델링이란? 주어진 데이터셋과 유사한 새로운 데이터를 생성하는 모델링 기법 데이터 분포를 학습하여 유사하지만 실제 존재하...
이번 주말도 쉬긴 글렀어요. >학습시간 09:00~21:00(당일17H/누적780) ◆ 학습내용 딥러닝으로 패션 아이템 이미지 생성하기 요청사항: FashionMNIST 데이터셋의 각 패션 아이템 생성 cGAN(Conditional GAN) 모델을 직접 설계하고 학습 생성된 이미지의 품질을 정성적(시각적 평가) 및 정량적(FID, IS 등, opti...
어렵다 어려워. >학습시간 16:00~02:00(당일10H/누적790H) ◆ 학습내용 cGAN으로 패션 아이템 이미지 생성하기 어제(1번~2번)에 이어서 3번부터 시작! 3. 모델 생성 모델 구조를 어떻게 해야하나 찾아보다가, 괜찮은 이미지를 하나 발견했다.
Q1. Semantic Segmentation이란 무엇이며, 이미지 분류(Classification)와 어떤 차이가 있나요?A1. 분할(세분화)은 모든 픽셀에 대해 클래스 레이블을 부여하는 테스크. 분류는 이미지 전체에 클래스 에측하는 테스크.Q2. Fully Conv
후.............. >학습시간 09:00~02:00(당일17H/누적807H) ◆ 학습내용 cGAN으로 패션 아이템 이미지 생성하기 어제(3번~6번)에 이어서 7번부터 시작! 7. 모델 개선(3차) (원본) (2차 시도) 2차 시도에 생성한 이미지
이럴수가. 파이썬을 처음부터 다시 배우는 느낌이다. >학습시간 09:00~02:00(당일17H/누적824H) ◆ 학습내용 1. GLI (1) CLI? Command Line Interface의 줄임말 사용자가 텍스트 명령어를 직접 입력해서 컴퓨터와 상호작용하는 방식 마우스 클릭 없이, 키보드만으로 컴퓨터를 조작함 GUI(Graphical User ...
험난한 깃허브 여행이 시작되었습니다 ^ㅅ^ >학습시간 09:00~02:00(당일17H/누적841H) ◆ 학습내용 내가 보려고 만든 Git & GitHub 명령어 모음 1. 초기화 명령어 2. 기초 명령어 3. 브랜치 명령어 4. 팀플 명령어 팀원 PR 리뷰
자! 깃 마스터해서 프로젝트 해보자고!!! >학습시간 09:00~02:00(당일17H/누적858H) ◆ 학습내용 팀프로젝트를 위한 Git & GitHub 정보 1. GitHub 협업 (1) Repository Git 저장소 = 버전 관리되는 코드/파일 모음 G
프로젝트 기간 동안 학습내용 대신 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적875H) ◆ 오늘의 깨달음 팀장 팀장이 생각보다 할게 많다. 첫 번쨰 팀프로젝트라서 어떻게 진행해야할지조차 막막한데, 실력도 안 좋아서 속도가 안 붙는다. 시스템
프로젝트 기간 동안 깨달음으로 대체학습시간 09:00~02:00(당일17H/누적892H)COCO 포맷을 YOLO 포맷으로 변경할 수 있다는 사실을 알았다. VOC, COCO, YOLO는 내 입맛에 따라 변경할 수 있는 것 같다. 모델이 받을 수 있는 포맷에 따라 유동적
프로젝트 기간 동안 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적909H) ◆ 오늘의 깨달음 1. 객체탐지 모델 객체탐지 모델이 꽤 다양하게 있다. 예전 미션에서 SSD모델을 사용했었는데, 이제 이 모델은 거의 이름조차 기억에 남겨지지 않을만한 기억의 저편 모델이 되었다고 한다. 탐지 모델 쪽에서 큰 업적을 세운 모델도 아니어서 큰...
하,,, >학습시간 09:00~02:00(당일17H/누적H) ◆ 오늘의 깨달음 이런 너무 집중하다가 블로그 쓰는 걸 깜빡했다. 내가 계속 만들고 싶었던 GPU 동기화 코드를 어느정도 만든 것 같다. 제발 돌릴 때 제대로 작동하면 좋겠는데,,,
프로젝트 기간 동안 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적943H) ◆ 오늘의 깨달음 1. GPU GPU의 중요성을 다시 한번 깨달은 하루. 문제는 나의 GPU 뿐만 아니라 팀원의 것도 신경써야 한다는 점이다. 로컬에서만 가능한 사람, 클라우드에서만 가능한 사람, 둘다 가능한 사람 등 고려해야할 점이 많다. 그래도 천만 ...
프로젝트 기간 동안 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적960H) ◆ 오늘의 깨달음 1. YOLO 욜로 모델의 세부 정보를 보기 위해 울트라리틱스 공식 홈페이지를 들어갔다. 버전도 다양하고 세부 모델도 다양하다. 멘토님에게 물어보니 세
프로젝트 기간 동안 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적977H) ◆ 오늘의 깨달음 1. 디렉토리 구조 프로젝트를 진행하며 디렉토리 구조가 협업의 뼈대라는 것을 알게 됐다. 역할이 명확히 나누어져 있어도 파일이 폴더별로 정리되어 있지
프로젝트 기간 동안 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적994H) ◆ 오늘의 깨달음 1. 디렉토리 구조 저장소 내 폴더를 재구성 해야하는데, 어떤 식으로 해야 딥러닝 프로젝트다운 것인지 잘 모르겠다. 이것저것 찾아봐도 현재 내가 적용하기에 너무 어려운 것만 나온다. 팀에서 아예 다루지 않은 것도 나온다. 폴더 자체를 모듈화...
프로젝트 기간 동안 깨달음으로 대체학습시간 09:00~02:00(당일17H/누적1011H)이런 ㅠㅠ 깃허브 만진다고 블로그를 또 깜빡했다. 밤새도록 디렉토리 구조를 싹다 바꿨다. 중간에 뭐가 엉켜서 처음으로 stash를 사용해 봤다. 와 근데 이거 엄청나게 좋은 기능이
프로젝트 기간 동안 깨달음으로 대체학습시간 09:00~02:00(당일17H/누적1028H)꼭 만들고 싶었던 자동화 모듈이 있었는데 드디어 만들었다. py의 좋은 점은 ipynb와 다르게 파일 하나하나를 모듈처럼 사용할 수 있다는 것이다. 살짝 라이브러리 같은 느낌으로
프로젝트 기간 동안 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적1045H) ◆ 오늘의 깨달음 1. 협업 협업이라는 단어에 대해 깊게 생각해본 하루였다. 지금은 부트캠프이기 때문에 인원도 그리 많지 않아서 상대적으로 관리도 수월할 것이 분명하다
프로젝트 기간 동안 깨달음으로 대체학습시간 09:00~02:00(당일17H/누적1062H)드디어 프로젝트 결과와 보고서가 모두 끝났다. 내일 발표를 위해 팀원과 여러 번 합을 맞추어 봤는데, 내 기준에서는 아주 만족스럽다. 멘토님들과 강사님이 어떻게 평가하실지는 잘 모

학습시간 09:00~02:00(당일17H/누적1079H) 회고 우여곡절 끝에 첫 프로젝트가 끝났다. 문과+수포자+비전공+무경력+30대라는 모든 악조건을 달고 팀장 역할까지 해낸 스스로에게 칭찬을... 약 3주 동안 어떤 일이 있었는지, 무엇을 느꼈고 배웠는지 기록
파이토치를 처음 배우던 날이 떠오른 하루다. 무슨 소리인지 하나도 모르겠다. 머신러닝 때 하던 텍스트 전처리와 비슷한 부분도 약간 있는 것 같은데,,, 당분간 힘든 하루가 될 것 같다. 왜 자연어가 어렵다고 하는지 알겠다.학습시간 09:00~02:00(당일17H/누적H
어제는 이해가 하나도 안 됐는데, 하루 종일 실습하면서 코드를 들여다 보니까 감이 잡힌다. 그새 또 실력이 조금 늘은 것 같다. 텍스트 데이터를 학습하는 건 머신러닝과 굉장히 흡사하다. 챗봇 만드는 게 이렇게 간단한 거였다니... 조금 놀랐다. 갑자기 자연어가 엄청 재
하,,, 어제까지 살짝 할만한 것 같았는데 다시 길을 잃어버렸다. 내가 볼 때 이건 몸으로 부딪히면서 배우는 수밖에 없을 것 같다.학습시간 09:00~02:00(당일17H/누적1130H)임베딩이 작동하는 원리를 익히기 위해 직접 구현하는 연습이다. 일단 이진 분류를 위
다른 건 몰라도 이 논문만큼은 양치질하듯 들여다봐야겠다. 일단 주말까지 계속 업데이트 해야지!학습시간 09:00~02:00(당일17H/누적1147H)딥러닝 역사의 한 획을 그은 < Attention Is All You Need > 논문 탐구기존 스퀀스 변환 모델은
오늘까지만 이론 바짝 공부하고 내일부터 실전으로 들어가야지! >학습시간 09:00~03:00(당일18H/누적1165H) ◆ 학습내용 키워드 요약 | 모델명 | 핵심 아이디어 | 주요 특징 | 장점 | 단점 | | --- | --- | --- | --- | ---
◆ Q & A 요약 > Q1. 텍스트 데이터를 모델에 적용하기 전에 어떤 전처리 과정을 거치나요? A1. 정제(특수문자), 토큰화(의미 분리), 정규화(대소문자&어간&표제어), 불용어 제거(조사&관사&전치사), 벡터화(숫자 연산) > Q2. FastText가 Wo
대망의 자연어 첫 미션. 그래도 트랜스포머 모델 전까지는 할만하지 않을까... >학습시간 09:00~02:00(당일17H/누적1182H) ◆ 학습내용 18,846개의 뉴스 문서를 20개의 카테고리로 분류 데이터를 훈련 세트와 테스트 세트로 적절히 분류 Word2Vec, FastText, GloVe 임베딩 모델 사용 RNN, LSTM, GRU 시계열 모...
단순한 미션인 줄 알았는데 생각보다 난이도가 높다... >학습시간 09:00~03:00(당일18H/누적1200H) ◆ 학습내용 어제 1~3번에 이어서 오늘 4번 부터 진행! 4. 텍스트 토큰화 어제 EDA를 끝냈고 이제 전처리를 할 차례다. 전처리는 크게 토큰화와 벡터화로 나눌 수 있다. 토큰화에서는 특수문자, 토크나이즈, 대소문자, 어간, 표제...
정신없이 자연어 첫 미션을 끝냈다. >학습시간 09:00~03:00(당일18H/누적1218H) ◆ 학습내용 어제 4~6번에 이어 7번부터 시작! 7. 모델 생성 3개 모델을 각각 구현해야 한다. 근데 뭔가 한방에 할 수 있는 방법이 없을까 생각하다가, 클래스에 다 넣어서 호출하면 좋을 것 같다는 아이디어가 떠올랐다. 3개 모델을 담기 위한 클래스...
미션 2개 + 해커톤 기획은 지옥이다... >학습시간 09:00~04:00(당일19H/누적1237H) ◆ 학습내용 한영 AI 번역기 모델 구현하기! 한국어를 영어로 번역하는 Seq2Seq(기본 모델, Attention 적용 모델) 구현 JSON 파일(trainset.json, validset.json) 형식 데이터셋 각 항목은 한국어 문장("ko")...
해커톤 기획서를 후다닥 끝내고 미션을 시작했는데,,, 이거 내가 2년만 일찍 태어났다면 손도 못 댔을 것 같다. >학습시간 09:00~03:00(당일18H/누적1273H) ◆ 학습내용 한영 AI 번역기 모델 구현 어제 1~3에 이어 4부터 진행! 4. Seq2S
이거 난이도가 조금 이상한데,,, 첫 프로젝트보다 이게 더 어려운 것 같다. >학습시간 13:00~01:00(당일12H/누적1267H) ◆ 학습내용 어제 4~5번에 이어 6번 부터 시작! 6. 모델 객체 생성 어제 모델 2개를 만들었는데, 시간이 늦어서 객체 생성을 못했다. 후딱 만들고 학습을 하자! 일단 가장 중요한 단어사전의 총 길이를 변수로...
역대급으로 어려웠던 미션... 내가 뭘 했는지도 모르겠다학습시간 12:00~00:00(당일12H/누적1279H)어제(6~7번)에 이어 오늘 8번 부터 시작!어제 틀어놓고 잤는데 베이직 모델조차 학습을 끝내지 못했다.이대로면 이 미션을 끝내지 못할 것 같다는 생각이 들어
◆ Q & A 요약 > Q1. BERT와 GPT의 주요 차이점은 무엇인가요? 각각의 기본 구조와 작동 방식, 적합한 NLP 응용 분야를 위주로 설명해주세요. A1. BERT는 트랜스포머 인코더의 쌓은 구조다. 마스크 토큰을 기반으로 양방향 자기지도 학습을 하여 문맥
어...? 진도 속도가...??? >학습시간 09:00~03:00(당일18H/누적1297H) ◆ 학습내용 1. 논문 톺아보기 (1) BERT의 차별점 Introduction (Section 1) Q. BERT가 기존의 Transformer 기반 언어 모델(GPT, ELMo 등)과 구별되는 가장 큰 차별점은 무엇인가? 가장 큰 차별점은 '진정한 ...
과연 나는 이 벽을 넘어갈 수 있을 것인가... >학습시간 09:00~03:00(당일18H/누적1315H) ◆ 학습내용 | 구분 | GPT-1 (2018) | GPT-2 (2019) | GPT-3 (2020) | | --- | --- | --- | --- | | 핵
어렵다 어려워 >학습시간 09:00~03:00(당일19H/누적1333H) ◆ 학습내용 목표 Hugging Face transformers 라이브러리를 사용하여 문서 요약 모델 구현 Transformer 기반 요약 모델(T5, BART 등) 구현 데이터 JSON
허깅페이스는 신이 내린 선물입니다. >학습시간 09:00~03:00(당일18H/누적1351H) ◆ 학습내용 어제 1~2번에 이어 3번 부터 시작! 3. transformers 라이브러리 이번 미션은 왠지 내가 직접 무언가를 구현해 보라는 느낌보다는 허깅페이스와
개인적으로 평가지표가 제일 어렵다. 수학을 모르니 어쩔 수 없는 일인 듯하다. 갈 길이 멀다. >학습시간 09:00~03:00(당일18H/누적1369H) ◆ 학습내용 어제에 이어 6번 부터 시작! 6. 평가지표 종류 어제 학습이 끝나고 드디어 평가를 할 차례다. 평가는 총 2단계로, 지표와 육안으로 평가할 예정이다. 이번에 ROUGE?라는 평가 ...
◆ Q & A 요약 > Q1. LLM이 생성한 텍스트에서 할루시네이션(Hallucination)이란 무엇이고, 왜 문제가 되나요? 여러 LLM 서비스들은 할루시네이션 문제를 어떻게 극복하려고 시도 중일까요? 구글링 등을 통해 자유롭게 리서치해보세요. A1. 거짓을 진실처럼 대답하는 현상. 모르겠다고 대답하지 않고 확률적으로 가장 자연스러운 단어를 조합하...
뭔가 시원하게 끝내지 못한 느낌이다. 언젠가 다시 돌아와서 혼쭐을 내주마! >학습시간 18:00~00:00(당일6H/누적1375H) ◆ 학습내용 어제에 이어 8번 부터 시작 8. 모델 개선 어제 학습한 모델의 성능이 썩 마음에 들지 않았다. 에폭을 조금 더
모델 만들다가 갑자기 완성된 모델에 프롬프트를 넣으려니 기분이 이상하다. >학습시간 09:00~02:00(당일17H/누적1392H) ◆ 학습내용 1. Prompt Engineering (1) 정의 인공지능(AI) 모델로부터 원하는 결과를 얻기 위해 입력 텍
논문 지옥에 빠졌다...학습시간 09:00~01:00(당일16H/누적1408H)Parameter-Efficient Fine-Tuning보통 lora > qlora > soft prompt 순으로 자주 사용A. 기존 파인튜닝(Full Fine-Tuning)의 문제점트랜스
신기한 인공지능의 세계! 영화에서나 듣던 양자를 여기서 듣다니... >학습시간 09:00~03:00(당일18H/누적1426H) ◆ 학습내용 1. LoRA (1) Fine-tuning의 한계 A. 기존 Full Fine-tuning의 문제점 GPT-3 같은 거대 모델의 모든 파라미터를 재학습시키는 방식은 비용이 매우 많이 듦 특정 작업에 맞춰 미세...
◆ Q & A 요약 > Q1. LangChain을 사용해 RAG 시스템을 구축할 때 어떤 주요 구성 요소들이 필요하고, 각각 어떤 역할을 하나요? A1. 문서 로더로 데이터를 가져오고, 텍스트 분할기로 잘게 나눈다. 이를 벡터 저장소에 임베딩하여 저장한다. 검색기는
텍스트 데이터는 머신런닝 때 배운 데이터프레임 지식을 이용할 수 있어서 좋다. 역시 다 쓸모가 있구만! >학습시간 09:00~03:00(당일18H/누적1444H) ◆ 학습내용 감성 분석 AI 구현하기! 내용 패션, 화장품, 가전, IT기기, 생활 5가지 분야에 대
허깅페이스를 이용할 땐 어떤 모델이 어떤 상황에 적합한지 구분하는 안목이 필요해 보인다. >학습시간 09:00~02:00(당일17H/누적1461H) ◆ 학습내용 리뷰 감성 분석 AI 구현하기! 어제에 이어 3번부터 시작! 3. 모델 생성 모델을 쇼핑하기 위해 허깅페이스에 들어왔다. 한국어를 지원하는 모델은 1666개다. 감성 분류 전용으로 이미 ...
왜 PEFT가 필요한지 알게 됐다.학습시간 09:00~03:00(당일18H/누적1479H)리뷰 감성 분석 AI 구현하기!지난 주에 이어 6번 부터 시작!지난 주 학습했던 두 모델을 평가할 차례다.results 폴더에 잘 저장되어 있다!먼저 Full Fine Tunnin
아무것도 이해하지 못했다. 흐름 자체를 모르겠다... 망했다 ㅠㅠ >학습시간 09:00~03:00(당일18H/누적1497H) ◆ 학습내용 RAG 한눈에 보기 1. RAG (1) 특징 검색 증강 생성(Retrieval Augmented Generation)의
LLM의 고질적 문제인 할루시네이션을 해결하는 다양한 방법을 알게 됐다. 확실히 최근 논문이라 어려운 부분이 많다. 이렇게 해도 할루시네이션을 완전 극복할 수 없다는 건 앞으로 발전할 여지가 많다는 뜻이겠지...! >학습시간 09:00~03:00(당일18H/누적1515H) ◆ 학습내용 Retrieval-Augmented Generation for La...
내가 제대로 하고 있는 건지 잘 모르겠다... >학습시간 09:00~03:00(당일18H/누적1533H) ◆ 학습내용 연말정산 도와주는 AI 챗봇 구현하기! 목표 LangChain을 이용해 RAG 시스템을 구현 사용자의 질문이 들어왔을 때, 연관된 문서 청크를 찾아 답변을 생성 Hybrid searching, multi-query retrieval,...
허깅페이스+랭체인 조합이 더 발전하면 AI 엔지니어의 밥줄이 끊길지도 모르겠다는 생각이 들었다... >학습시간 09:00~03:00(당일18H/누적1551H) ◆ 학습내용 어제에 이어 4번 부터 시작! 4. Generation 어제 벡터 DB에서 코사인 유사도 기반으로 문서를 뽑아오는 것까지 했다. Indexing - Retrieval 단계까지 ...
프로젝트 기간 깨달음으로 대체 >학습시간 09:00~02:00(당일17H/누적1568H) ◆ 오늘의 깨달음 GCP GCP로 VM 생성하는데 에너지를 전부 소진했다. 블로그 쓸 힘도 없네 후 GCP 두고보자 넌 꼭 내가 마스터해주마.
학습시간 09:00~03:00(당일18H/누적1586H) ◆ 일지 SSH GCP VM 만드는 법을 간신히 터득했는데 다음 고비가 찾아왔다. 이걸 VSCode에 연결하려면 SSH를 이용해야 하는데, 이게 운영체제나 인증방식에 따라 방법이 조금씩 달라서 까다롭다. 예전에 클라우드 GPU 사용할 때 한번 만들어보긴 했는데, 구글이 중간에 껴있다 보니까 보안...
학습시간 09:00~03:00(당일18H/누적1604H) ◆ 일지 EDA hwp, pdf 파일은 어떤 식으로 EDA 하는 것이 좋은지 잘 모르겠다. 이번 프로젝트 때는 운 좋게 메타데이터를 받았지만, 만약 메타데이터 파일이 없었다면 어떤 상황이 펼쳐졌을지 상상도 하기 싫다... 실무에서는 데이터부터 스스로 구하는 일도 꽤나 많을 것 같은데, 그럼 크롤...
학습시간 09:00~02:00(당일17H/누적1621H) ◆ 일지 역할분담 팀프로젝트에서 가장 까다로운 건 어떤 역할을 누가 맡을지 정하는 일인 것 같다. 특히나 인공지능 개발자라는 같은 직군만 모인 경우에는 더욱 더... 혼자 처음부터 끝까지 한다면 내 스타일 대로 할 수 있어서 더 편하겠지만 큰 프로젝트는 감당할 수 없을 것이다. 미래를 위해 미리미...
학습시간 09:00~03:00(당일18H/누적1639H) ◆ 일지 Jupyter Hub 오늘 하루종일 씨름한 녀석. 터미널에서 py 파일을 실행시키는 건 내가 직접 가상환경과 파이썬 경로를 설정하기 때문에 문제가 없다. 근데 노트북에서는 커널을 사용하기 때문에 실행이 안 된다. 경로를 적절하게 맞추어 주어야 하는데 무슨 짓을 해도 안 되더라. 여섯 명...
학습시간 11:00~21:00(당일10H/누적1649H) ◆ 일지 kernel 전역으로 만든 커널이 정상연결되는 것까지 확인했는데, 예상하던 문제가 터졌다. 커널에 입력한 터미널명령어가 환경을 제대로 인식하지 못한다..ㅠㅠ 일단 임시조치를 위한 코드를 찾았으나,,
학습시간 09:00~02:00(당일17H/누적1666H) ◆ 일지 Cache 패키지를 언인스톨해도 남은 디스크 용량이 바뀌지 않아서 찾아보다가 cache 때문임을 알게 됐다. 근데 문제는 이 cache의 종류가 참 다양해서 무턱대고 지워서는 또 안 되는 것 같다... 어느 수준까지가 지울 수 있는 영역인지 파악할 필요가 있어 보인다. 아니 근데 패키지...
학습시간 09:00~02:00(당일17H/누적1683H) ◆ 학습내용 Modularity 담당 파트별로 모듈 코드를 짜서 연결하는 작업을 하는데 이게 생각보다 쉽지 않다. 코드로 큰 그림을 적당히 그려놓고 파트를 나누었어야 했는데,,, 무턱대고 파트만 나눠서 문제가 된 것 같다. 게다가 서로 다른 그림을 머릿속에 가지고 있는 것도 문제인 것 같다. 당...
학습시간 09:00~02:00(당일17H/누적1700H) 일지 import 운 좋게도 하고 싶었던 모듈 연결에 성공했다. 모듈 간 인풋과 아웃풋을 고려하는 게 생각보다 어려운 일임을 알게 됐다. main.py를 돌릴 때 모듈을 사용하게 되는데, 이때 사용한 모듈 안에 또 모듈이 연결되어 있으면 import 수준에서 경로를 맞추어야 한다는 것을 알게 됐다...
학습시간 09:00~02:00(당일17H/누적1717H) ◆ 일지 from . import module 우여곡절 끝에 모듈간 연결에 성공했다. 확실히 팀원이 함께 머리를 굴리니 안 될 것도 되는 듯하다. 어제 깨달은 건 모듈화에서 경로 설정이 중요하다는 거였는데, import 수준에서만 경로를 맞추면 서버를 실행시킬 때 모듈 내 모듈을 인식하지 못한다...
학습시간 09:00~02:00(당일17H/누적1734H) ◆ 일지 debug 팀 단위로 디버깅을 했다. 지난 프로젝트 때는 디버깅이랄 것도 없이 그냥 모델 학습 시키기에 바빴는데, 이번엔 학습을 안 시키니 부가적인 작업을 할 여유가 있는 것 같다. LLM 모델을 다룰 때는 어떤 디버깅을 할 수 있는지 찾아보았는데, 생각보다 이것 관련한 생태계가 엄청 ...
학습시간 09:00~01:00(당일16H/누적1750H)프로젝트 용량 제한이 50GB에서 100GB로 풀려서 바로 모델을 업그레이드 했다. 모델 다운로드까지는 문제가 없었는데,, 이제 디스크 용량이 아니라 메모리 용량 이슈가 터졌다. 메모리가 부족해서 모델 로드가 안
학습시간 09:00~02:00(당일17H/누적1767H) ◆ 일지 발표준비 살면서 질리도록 발표를 했음에도 여전히 발표를 준비하기는 어렵다. 특히나 여러 명이서 발표를 해야하는 경우는 더욱더 그렇다. 혼자서 처음부터 끝까지 발표하면 쉬운데... 어쩌면 그래서 난
학습시간 09:00~03:00(당일18H/누적1785H) ◆ 일지 개발 완료 문서를 잘 찾을 때도 있고 못찾을 때도 있는데, 뭐가 문제인지 한참을 들여다 보다가 원인을 발견했다. 임베딩 모델과 LLM 모델의 문제가 아니었다는 것을 프로젝트 끝나기 하루 전에 알았다. 그래도 알았으니 다행인가. 그동안 팀원과 함께 개선한 모듈을 가까스로 연결에 성공했다....
학습시간 09:00~02:00(당일17H/누적1802H)살짝 타임어택을 하긴 했지만 그래도 보고서까지 나름 만족스럽게 나왔다. 어떤 성과든 잘 정리하고 잘 발표하는 것이 가장 중요한데, 팀프로젝트는 사람이 많아서 보고서 작성이 금방 되는 것 같다. 혼자서 했다면 엄청
학습시간 09:00~01:00(당일16H/누적1818H) ◆ 일지 두 번째 프로젝트가 끝났다. 지난 프로젝트 때 아쉬움이 남았던 부분을 전부 경험할 수 있어서 좋았다. 모듈 단위로 역할분담하여 코드를 짜고 취합해서 연결하는 것. 백엔드와 프론트엔드 서버를 구축해서
Q1. Docker 이미지와 컨테이너의 차이를 설명해보세요.A1. 이미지는 app 실행에 필요한 환경을 모아놓은 것(읽기)이고, 컨테이너는 이미지를 기반으로 실행된 프로세스(쓰기)이다.Q2. Docker Compose는 어떤 상황에서 유용하며, 일반 Dockerfile
멘붕학습시간 09:00~22:00(당일13H/누적1831H)컴퓨터의 물리적 하드웨어를 보다 효율적으로 활용할 수 있도록 해주는 리소스를 추상화하는 개념운영체제나 애플리케이션을 하나의 물리적 시스템에서 독립적으로 실행되도록 하는 기술하나의 실물 컴퓨팅 자원을 마치 여러
멘붕 >학습시간 09:00~02:00(당일17H/누적) ◆ 학습내용 1. Docker CLI (1) 이미지 관련 명령어 build: Dockerfile로 이미지 생성 (docker build -t 이름:태그 .) images: 로컬에 저장된 이미지 목록 보기
◆ Q & A 요약 > Q1. 딥러닝 모델을 ONNX, TensorRT 등의 포맷으로 변환해야 하는 이유는 무엇인가요? A1. 프레임워크와 플랫폼에 제한을 받지 않고 배포하기 위해서 > Q2. 양자화 기법인 Post-Training Quantization과 Quantization-Aware Training의 차이를 설명해보세요. A2. 양자화 시의 정보손...
무슨 말인지 하나도 모르겠다 ㅠㅠ...학습시간 09:00~01:00(당일16H/1860H)학습된 딥러닝 모델의 효율성을 극대화하는 과정주요 목표: 추론 속도 향상, 메모리 사용량 감소, 모델 크기 축소, 전력 소모량 절감정확도 손실을 최소화하면서 위 목표들을 달성하는
신기한 가중치의 세계 >학습시간 09:00~02:00(당일17H/누적1877H) ◆ 학습내용 모델 배포 실습 아래의 3가지 타입의 모델로 변환하여 저장 .pth (PyTorch 기본 저장 형식) .pth (양자화 된 버전) .onnx (ONNX 형식) ONNX 파일을 기반으로 하여 추론 코드를 작성 모델에 적절한 평가 데이터셋을 사용해 ...
ONNX의 위대함을 깨달았다. >학습시간 09:00~02:00(당일17H/누적1894H) ◆ 학습내용 모델 배포 실습 어제에 이어 4번 부터 시작! 4. 새로운 ipynb 생성 어제 코드는 modeling.ipynb에 저장했다. 오늘 코드는 inference.ipynb 파일을 새로 만들어서 넣어야 한다. 추론에 필요한 데이터와 가중치를 넣을 깡...
다행이도 Streamlit은 지난 플젝에서도 사용했고 FastAPI와 함께 미리 조금씩 공부해둔 덕분에 수업을 무난히 따라갈 수 있었다. 근데 생각보다 기능이 많아서 놀랐다. 확실히 머신러닝 관련 프로토타입 간단히 만들기엔 이것만큼 좋은 게 없는 것 같다. >학습시간 09:00~01:00(당일16H/1910H) ◆ 학습내용 1. 웹 서비스 기초 (1...
기능을 전부 익히려니 Streamlit도 어려운 것 같다 ㅠㅠ >학습시간 09:00~02:00(당일17H/누적1927H) ◆ 학습내용 Streamlit 기능 (1) 텍스트 (2) 콜아웃 (3) 매트릭  ◆ 학습내용 웹앱 모델 배포 실습!! 목표 손으로 숫자를 그려 입력하면 해당 숫자를 예측하는 Streamlit 기반 웹 서비스를 개발 Github ONNX 모델 저장소에서 제공하는 MNIST ONNX 모델 활용 ht...
생성모델보다 예측모델이 고려해야할 변수가 많은 것 같다. 그래도 오늘 꽤나 삽질한 덕분에 값진 깨달음을 얻었다...! >학습시간 09:00~02:00(당일17H/누적1960H) ◆ 학습내용 웹앱 모델 배포 실습!! 어제에 이어 4번 부터 시작! 4. 성능 개선 어제 웹앱 제작까지 마치고 0~9 숫자를 그려봤는데 모델이 대부분 5로 예측하는 문제가...
◆ Q & A 요약 > Q1. Streamlit을 사용해서 AI 모델을 웹 애플리케이션에 통합하려면 모델 로드, 사용자 입력, 결과 출력의 단계를 거쳐야합니다. 각각의 단계에 대해 설명해주세요. > A1. 모델 로드: 앱 실행 시 AI 모델을 메모리에 적재, st.cache_resource 데코레이터를 사용해 모델 재로딩을 방지하고 앱 응답 속도 최적화...
흠... FastAPI로 LLM 모델 하나만 연결할 땐 할만하다 싶었는데 본격적으로 들어가니까 또 어렵다. Pydantic을 이용하면 파이썬도 타입스크립트처럼 타입을 지정할 수 있다고 한다. 아직도 배울게 태산이구나... >학습시간 09:00~02:00(당일17H/누적1977H) ◆ 학습내용 1. 웹 개발과 백엔드 (1) 클라이언트-서버 모델 A....
FastAPI 라서 그런지 진도 나가는 속도마저 Fast 하다. >학습시간 09:00~02:00(당일17H/누적1994H) ◆ 학습내용 1. Pydantic 파이썬의 타입 힌트(type hint)를 사용해 데이터의 구조와 타입을 강제하는 라이브러리 복잡한 JSON 데이터를 단순한 파이썬 객체처럼 다룰 수 있게 해줌 FastAPI는 이 Pydantic...
어렵다 어려워 >학습시간 09:00~03:00(당일18H/누적2012H) ◆ 학습내용 실습 1. 기본 API 문제 코드 root API (@app.get("/")) @app.get("/") 데코레이터로 루트 경로 GET 요청 처리 read_root 함수를
어렵다... ◆ 학습내용 실습!! 7. Base Response API 문제 코드 BaseResponse 모델 상세 Generic[T] BaseResponse 모델이 다양한 타입의 데이터를 담을 수 있도록 제네릭(Generic)을 사용
시간이 참 빠르다. 벌써 마지막 미션이라니,,, 어렵지만 끝까지 힘내보자!! >학습시간 09:00~03:00(당일18H/2042H) ◆ 학습내용 영화 리뷰 AI 분석 웹앱 구현하기!!! 프론트엔드 (Streamlit) 영화 목록 표시 기능 = 제목, 포스터 이미
혼자서 프론트엔드, 백엔드, 데이터베이스, 모델까지 전부 다 하려니 머리가 핑핑 돈다. 정말 산 넘어 산이구나 ㅠㅠ >학습시간 09:00~03:00(당일18H/누적2060H) ◆ 학습내용 영화 리뷰 AI 분석 웹앱 구현하기!! 어제에 이어 3번 부터 진행 3. 백엔드(메인화면) 일단 데이터베이스 셋팅부터 해줘야 한다. 강의 때는 pydantic...
데이터베이스를 기반으로 한 웹앱을 만들어 보니 간단한 기능 하나에도 얼마나 많은 코드가 필요한지 알게 되었다. 백엔드에서 API를 만든다고 곧장 통신이 되는 게 아니라는 것도 알게 되었다. 연결이 잘 안 된다는 것이 바로 이런 뜻이었구나. 어렵지만 신기하고 재밌다. >학습시간 09:00~03:00(당일18H/누적2078H) ◆ 학습내용 영화 리뷰 AI...
처음으로 나만의 알고리즘 같은 것을 만들었다. 간단해도 고려할 게 많다. 무언가를 자동화 한다는 건 참 매력적이지만 그만큼 미리 계획을 짜둘 게 많은 것 같다. >학습시간 09:00~03:00(당일18H/누적2096H) ◆ 학습내용 영화 리뷰 AI 분석 웹앱 구현하기! 어제에 이어 6번 부터 시작! 6. AI 모델 개선 어제 리뷰 수정하는 기능까...
이제 막 프론트엔드+백엔드+모델 서빙하는 것을 끝냈는데 쉴 새 없이 또 새로운 개념을 익혀야 한다... 정말 휘몰아치는구나... 하루에 18시간씩 공부해도 진도를 따라갈 수가 없다 ㅠㅠ >학습시간 09:00~03:00(당일18H/누적2114H) ◆ 학습내용 1.
드디어 마지막 이론 수업이 끝났다. >학습시간 09:00~03:00(당일18H/누적2132H) ◆ 학습내용 1. Triton Inference Server (1) Triton이란? NVIDIA에서 개발한 오픈소스 추론 서버 AI 모델을 실제 서비스(Production) 환경에 배포하기 위해 설계됨 복잡한 추론 작업을 단순화하고 성능을 최적화하는 데...
◆ Q & A 요약 > Q1. 모델 서빙이란 무엇이며, 왜 필요한가요? 실제 서비스 환경에서 서빙 프레임워크가 어떤 역할을 하나요? > A1. 모델 서빙은 학습이 완료된 AI 모델을 실제 사용자가 접근할 수 있도록 API 형태로 배포하는 과정이다. 이를 통해 모델의 예측 기능을 비즈니스 가치로 연결하고, 대규모 요청을 자동화하여 실시간으로 처리할 수 있다...
학습시간 09:00~03:00(당일18H/누적2150H) ◆ 일지 프로젝트 준비 어쩌다 보니 부트캠프의 모든 프로젝트에 팀장을 맡게 됐다. 처음 할 때는 뭘 어떻게 왜 해야 하는지 몰라서 많이 당황스러웠는데, 3회 차에 접어드니 큰 체력소모 없이 프로젝트를 이끌
학습시간 09:00~03:00(당일18H/누적2168H) ◆ 일지 생각 좋은 프로젝트란 뭘까? 마지막 프로젝트라 그런지 하루 종일 이런 생각이 들었다. 뛰어난 퀄리티의 서비스를 만드는 게 좋은 프로젝트일까? 인공지능 개발자에게 도움이 되는 기술을 배울 수 있어야
학습시간 09:00~03:00(당일18H/누적2186H) ◆ 일지 Agentic AI 멘토링을 하면서 Agentic AI에 대해 알게 됐다. 요즘은 이게 대세라고 한다. 대세가 왜 이렇게 빨리 바뀌는 건지 참... 커리큘럼에 관련 강의가 있었다면 참 좋았을 텐데
학습시간 09:00~01:00(당일16H/누적)2202H ◆ 일지 백엔드 이번 프로젝트에서는 백엔드를 중점적으로 보려고 한다. 마지막 미션 때 FastAPI로 데이터베이스 백엔드를 구축했었는데, 모든 코드를 backend.py 파일에 다 넣어서 그런지 유지보수가
학습시간 09:00~03:00(당일18H/누적2220H) ◆ 일지 방화벽 백엔드를 계속 들여다보니 코드나 API 같은 것만 신경 써선 안 된다는 것을 알게 됐다. 어쨌든 나 혼자만 접속하는 게 아니기 때문이다. 서버를 개방해 두어야 하는데, 그렇다고 또 외부에서
학습시간 09:00~02:00(당일17H/누적2237H) ◆ 일지 깃허브 토큰 클라우드 서버에서 직접 개발을 할 때는 깃허브 연동 이슈가 있다. 오늘도 연동을 하려니 계정 정보를 기입해도 접속이 안 되는 문제가 발생했다. 해결하는 방법은 다양하게 있겠지만, 나는
학습시간 09:00~03:00(당일18H/누적2254H) ◆ 일지 백엔드 기능 백엔드에 어떤 기능을 추가적으로 넣으면 좋을지 고민 중이다. 확실히 똑같은 FastAPI를 사용해도 백엔드 서버를 구축하는 것과 모델 서빙 서버를 구축하는 건 전혀 다른 느낌이다. 모델
학습시간 09:00~03:00(당일18H/누적2272H) ◆ 일지 데이터베이스 DB를 관리하다 보니 궁금한 게 많아졌다. 그동안 엑셀 DB를 질리도록 다루어보았지만, db 확장자의 데이터베이스는 뭔가 비슷한 것 같으면서 또 다른 느낌이다. 특히 서버 및 CRUD API와 연동해서 DB를 요리조리 관리하는 게 참 신기하면서 재밌다. 이게 그동안 회사에서...
학습시간 09:00~02:00(당일17H/누적2289H)GCP 협업에서 가장 골치 아픈 건 아무래도 권한의 문제다. 팀원의 모든 리눅스 계정이 동일한 권한을 가지고 있다 하더라도, 계정에서 직접 분기되는 폴더는 타 계정에서 접근할 수가 없다. 지난 프로젝트 때도 이 문
학습시간 09:00~03:00(당일18H/누적2307H) ◆ 일지 계정 이번 프로젝트에 계정 기능을 추가하고 싶어서 이것저것 찾아봤다. DB에 아이디와 비밀번호를 취합하고 로그인 시 매칭시키면 끝일 거라 생각했는데,,, 역시나 이건 너무나도 일차원적인 생각이었다. 암호화 알고리즘과 인증상태 유지 토큰을 다룰 줄 알아야 기본적인 계정 세션을 구현할 수 ...
학습시간 09:00~03:00(당일18H/누적2325H) ◆ 일지 FastAPI 관리자 권한 온종일 계정 기능을 활성화하기 위한 API 작업을 했다. DB에 고작 아이디와 비밀번호 넣는 게 끝인데 API만 7개 정도 만든 것 같다. 특히 사용자와 관리자의 권한을 나누는 게 약간 번거로웠는데, 사용자가 관리자 권한을 침범하지 않도록 설정하는 기능이 Fa...
학습시간 09:00~01:00(당일16H/누적2341H) ◆ 일지 계정 DB 분기 계정마다 DB를 각각 부여하는 기능을 구현하는데 애를 먹고 있다. 계정을 여러 개 만들었는데 전부 똑같은 DB를 공유하고 있다. 이걸 계정별로 분기하려면 지금까지 만들어 놓은 API를 전부 수정한다 ㅠㅠ 게다가 백엔드뿐만 아니라 프론트엔드도 사용자 토큰을 API에 보낼 ...
학습시간 09:00~02:00(당일17H/누적2358H) ◆ 일지 DB 테이블 관리 로컬에서 DB를 볼 때는 SQL 문법도 공부할 겸 DBeaver를 사용하고 있다. 근데 GCP 개발환경 내에서는 리눅스 환경이기 때문에 툴을 사용해서 DB를 열어볼 수가 없다. DBeaver에서 서버를 연결하면 된다고 하는데 아직까지는 사용방법이 익숙하지 않다. DB ...
학습시간 09:00~02:00(당일17H/누적2370H) ◆ 일지 좋은 서비스란 서비스 구현을 완료했다. 프로젝트를 시작할 때는 강의 시간에 다루어본 기술 스택을 쓰는 거라 그다지 어렵지 않을 것 같았는데 아니었다. 각 서버를 매끄럽게 연결하려면 해당 서버를 담당
학습시간 09:00~02:00(당일17H/누적2392H) ◆ 일지 좋은 주석이란 서비스 개발을 마치고 코드를 정돈하고 있다. 최대한 가독성 좋은 방향으로 주석을 달고 있는데, 문득 좋은 주석이란 뭘까? 하는 생각이 들었다. 이쪽 업계가 하루이틀 된 것도 아니니, 개발자들 사이에서 관례적으로 이어져 내려온 주석 다는 방법 같은 게 분명 있지 않을까. 강...
학습시간 09:00~03:00(당일18H/누적2410H) ◆ 일지 익숙함 기능 구현은 끝났지만 내가 설정한 타겟이 이 서비스를 편하게 쓸 수 있을까? 하는 근본적인 의구심이 들었다. 현재 서비스에 구현한 기능 & 용어 & 흐름 등은 내게 익숙하지만, 처음 접하는 사람은 어느 정도의 진입장벽이 있을 수 있겠다는 생각이 든다. 발표 전에 부모님에게라도 직...
학습시간 09:00~02:00(당일17H/누적2427H) ◆ 일지 발표 추석을 지내고 돌아오니 아침부터 일어나기가 꽤나 힘들다... 어쨌든 발표를 위한 보고서 제작까지 거의 끝난 것 같다. 그동안의 프로젝트는 모델과 관련된 것이어서 A/B 테스트를 진행하고 평가하는 과정만 넣으면 딱 적당한 분량의 보고서가 나왔는데, 이번에는 서비스 구현이라 어떤 식으...
학습시간 09:00~02:00(당일17H/누적2444H) ◆ 일지 회고 드디어 마지막 프로젝트가 끝났다. 간단한 서비스 하나 정도는 금방 만들 수 있을 것 같았는데 생각보다 다양한 부분에서 시간을 많이 소모했다. 특히 역할분담을 직무 단위로 분할한 것으로 인한 어려움이 있었던 것 같다. 지난 프로젝트 때는 모듈 단위로 분할해서 모두가 AI 구현 영역에서...

드디어 수료했다...!! 7개월 동안 참 많은 일이 있었다. 회고도 할 겸, 미래의 나에게 줄 추억거리도 만들 겸, 그동안 어떤 일이 있었는지 공유해보고자 한다. 비전공자 중 AI 엔지니어 부트캠프를 고려하는 사람에게 이 글이 도움이 되면 좋겠다.(스압 주의)