부스트캠프 AI Tech 본격적으로 부스트캠프 AI Tech를 시작하기에 앞서, 합격이 되기까지의 이야기를 해볼까 합니다. 그전에, 부스트캠프 AI Tech 교육 설명회 영상도 있으니 보고 오시면 좋을 것 같습니다. 자가진단 테스트 자가진단 테스트 자가진단 테스트 해설 먼저, 자가진단 테스트입니다. BAT 부스트캠프 AI 테스트의 예시라고 생각하시면 ...
강의 복습 내용 [DAY 1] 파이썬/AI 개발환경 준비하기 Hidden class - Basic computer class for newbies OS (Operating System, 운영체제) : 우리의 프로그램이 동작할 수 있는 구동 환경. File system : OS에서 파일을 저장하는 트리구조 저장 체계. File from wiki : 컴퓨...
강의 복습 내용 [DAY 2] 파이썬 기초 문법 Variables 변수 : 데이터(값)를 저장하기 위한 메모리 공간의 프로그래밍 상 이름. 변수는 메모리 주소를 가지고 있고 변수에 들어가는 값은 메모리 주소에 할당됨. 변수 이름 작명법 알파벳, 숫자, 언더스코어(_) 로 선언 가능. 변수명은 의미 있는 단어로 표기하는 것이 좋다. 변수명은 ...
강의 복습 내용 [DAY 3] 파이썬 기초 문법 II Python Data Structure 스택 (Stack) 나중에 넣은 데이터를 먼저 반환하도록 설계된 메모리 구조 Last In First Out (LIFO) Data의 입력을 Push, 출력을 Pop이라고 함 리스트를 사용하여 스택 구조를 구현 가능 push를 append(),...
강의 복습 내용 [DAY 4] 파이썬 기초 문법 III Python Object Oriented Programming 객체 지향 프로그램 (Object Oriented Programming, OOP) 객체: 속성(Attribute)와 행동(Action)을 가짐 OOP는 이러한 객체 개념을 프로그램으로 표현 속성은 변수(variable), 행...
강의 복습 내용 [DAY 5] 파이썬으로 데이터 다루기 File / Exception / Log Handling Exception 1) 예상 가능한 예외 발생 여부를 사전에 인지할 수 있는 예외 사용자의 잘못된 입력, 파일 호출 시 파일 없음 개발자가 반드시 명시적으로 정의 해야함 2) 예상이 불가능한 예외 인터프...
강의 복습 내용 [DAY 6] Numpy / 벡터 / 행렬 [AI Math 0강] numpy numpy Numerical Python 파이썬의 고성능 과학 계산용 패키지 Matric와 Vector와 같은 Array 연산의 사실상의 표준 한글에서는 넘파이로 주로 통칭 누군가는 넘피/늄파이라고 부르기도 함 일반 List에 비해 빠르고...
강의 복습 내용 [DAY 7] 경사하강법 [AI Math 3강] 경사하강법(순한맛) 미분(differentiation)은 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구로 최적화에서 제일 많이 사용하는 기법입니다. 미분은 함수 f의 주어진 점 (x, f(x))에서의 접선의 기울기를 구합니다. 한 점에서 접선의 기울기를 알면 어느 방향으로 점을...
강의 복습 내용 [DAY 8] Pandas I / 딥러닝 학습방법 이해하기 [AI Math 5강] pandas I pandas 구조화된 데이터의 처리를 지원하는 Python 라이브러리 panel data -> pandas 고성능 array 계산 라이브러리인 numpy와 통합하여, 강력한 “스프레드시트” 처리 기능을 제공 인덱싱, 연산용 ...
강의 복습 내용 [DAY 9] Pandas II / 확률론 [AI Math 6강] pandas II Groupby SQL groupby 명령어와 같음 split -> apply -> combine 과정을 거쳐 연산함 한 개이상의 column을 묶을 수 있음 Hierarchical index Groupby 명령의 결과물도 결국...
강의 복습 내용 [DAY 10] 시각화 / 통계학 [AI Math 7강] 시각화 도구 matplotlib pyplot 객체를 사용하여 데이터를 표시 pyplot 객체에 그래프들을 쌓은 다음 flush 최대 단점 argument를 kwards로 받음 고정된 argument가 없어서 alt+tab으로 확인이 어려움 Graph는 원래 fi...
강의 복습 내용 [DAY 11] 딥러닝 기초 [AI Math 8강] 베이즈 통계학 맛보기 베이즈 통계학을 이해하기 위해선 조건부 확률의 개념을 이해해야 합니다. 베이즈 정리는 조건부 확률을 이용하여 정보를 갱신하는 방법을 알려줍니다. 조건부확률 P(A|B)는 사건 B가 일어난 상황에서 사건 A가 발생할 확률을 의미합니다. ![](https://imag...
강의 복습 내용 [DAY 12] 최적화 [DLBasic] Optimization Gradient Descent : First-order iterative optimization algorithm for finding a local minimum of a differentiable function. Important Concepts in Optimiza...
강의 복습 내용 [DAY 13] Convolutional Neural Networks [DLBasic] CNN - Convolution은 무엇인가? Convolutional Neural Networks CNN consists of convolution layer, pooling layer, and fully connected layer. C...
강의 복습 내용 [DAY 14] Recurrent Neural Networks [AI Math 10강] RNN 첫걸음 시퀀스 데이터 이해하기 소리, 문자열, 주가 등의 데이터를 시퀀스(sequence) 데이터로 분류합니다. 시퀀스 데이터는 독립동등분포(i.i.d.) 가정을 잘 위배하기 때문에 순서를 바꾸거나 과거 정보에 손실이 발생하면 데이터의...
강의 복습 내용 [DAY 15] Generative model [DLBasic] Generative Models 1 Learning a Generative Model Suppose we are given images of dogs. We want to learn a probability distribution p(x) such that ...
강의 복습 내용 [DAY 16] (1강) Intro to NLP, Bag-of-Words 1. Intro to Natural Language Processing(NLP) Goal of This Course Natural language processing (NLP), which aims at properly understanding and gen...
강의 복습 내용 [DAY 17] (3강) Recurrent Neural Network and Language Modeling 1. Basics of Recurrent Neural Networks (RNNs) Basic structure Inputs and outputs of RNNs (rolled version) We usually want t...
강의 복습 내용 [DAY 18] (5강) Sequence to Sequence with Attention 1. Seq2Seq with attention Encoder-decoder architecture Attention mechanism Seq2Seq Model It takes a sequence of words as input and give...
강의 복습 내용 [DAY 19] (7강) Transformer I 1. Transformer Transformer: High-Level View Attention is all you need, NeurIPS’17 No more RNN or CNN modules RNN: Long-Term Dependency Bi-Directional RN...
강의 복습 내용 [DAY 20] (9강) Self-supervised Pre-training Models 1. Self-Supervised Pre-Training Models Recent Trends Transformer model and its self-attention block has become a general-purpose sequen...
강의 복습 내용 [Day 21] 그래프 이론 기초 & 그래프 패턴 [Graph 1강] 그래프란 무엇이고 왜 중요할까? 1. 그래프란 무엇이고 왜 중요할까? 1.1 그래프란 무엇일까? 그래프(Graph)는 정점 집합과 간선 집합으로 이루어진 수학적 구조입니다 하나의 간선은 두 개의 정점을 연결합니다 모든 정점 쌍이 반드시 간선으로 직접 연결되는 것은 ...
강의 복습 내용 [Day 22] 페이지랭크 & 전파 모델 [Graph 3강] 검색 엔진에서는 그래프를 어떻게 활용할까? 1. 페이지랭크의 배경 1.1 웹과 그래프 웹은 웹페이지와 하이퍼링크로 구성된 거대한 방향성 있는 그래프입니다 웹페이지는 정점에 해당합니다 웹페이지가 포함하는 하이퍼링크는 해당 웹페이지에서 나가는 간선에 해당합니다 단, 웹페이지는 ...
강의 복습 내용 [Day 23] 군집 탐색 & 추천시스템 (기초) [Graph 5강] 그래프의 구조를 어떻게 분석할까? 1. 군집 구조와 군집 탐색 문제 1.1 군집의 정의 군집(Community)이란 다음 조건들을 만족하는 정점들의 집합입니다 (1) 집합에 속하는 정점 사이에는 많은 간선이 존재합니다 (2) 집합에 속하는 정점과 그렇지 않은...
강의 복습 내용 [Day 24] 정점 표현 & 추천시스템 (심화) [Graph 7강] 그래프의 정점을 어떻게 벡터로 표현할까? 1. 정점 표현 학습 1.1 정점 표현 학습이란? 정점 표현 학습이란 그래프의 정점들을 벡터의 형태로 표현하는 것입니다 정점 표현 학습은 간단히 정점 임베딩(Node Embedding)이라고도 부릅니다 정점 임베딩은 벡터 형...
강의 복습 내용 [Day 25] GNN 기초 & GNN 심화 [Graph 9강] 그래프 신경망이란 무엇일까? (기본) 1. 정점 표현 학습 복습 1.1 정점 표현 학습 정점 표현 학습이란 그래프의 정점들을 벡터의 형태로 표현하는 것입니다 정점 표현 학습은 간단히 정점 임베딩(Node Embedding)이라고도 부릅니다 정점 표현 학습의 입력은 그래프...
강의 복습 내용 [DAY 31] (1강) Image classification 1 (2강) Annotation data efficient learning ![](https://images.velog.io/images/skaurl/post/2d5e14cd-6da7-48f1-997a-1720bec93f13/%EC%8A%A4%E
강의 복습 내용 [DAY 32] (3강) Image classification 2 ![](https://images.velog.io/images/skaurl/post/f4be5493-4e3b-4e6a-8ed4-41ce62797679/%EC%8A%A4%ED%81%AC%EB%A6%B0%EC%83%B7%202021-03-09%2014.18.
강의 복습 내용 [DAY 33] (5강) Object detection 2.3 Faster R-CNN Non-Maximum Suppression (NMS) Step 1: Select the box with the highest objectiveness score Step 2: Compare IoU of this bo
강의 복습 내용 [DAY 34] (7강) Instance/Panoptic segmentation ![](https://images.velog.io/images/skaurl/post/523ada79-06f7-43be-a98d-199128791f07/%EC%8A%A4%ED%81%AC%EB%A6%B0%EC%83%B7%202021-03-11%
강의 복습 내용 [DAY 35] (9강) Multi-modal: Captioning and speaking Challenge (1) - Different representations between modalities Challenge (2) - Unbalance between heterogeneous feature spaces Challenge (3)...
강의 복습 내용 [Day 36] (1강) 가벼운 모델 (2강) 팔리는 물건 ![](https://images.velog.io/images/skaurl/post
강의 복습 내용 [Day 37] (4강) 모델의 시공간 ![](https://images.velog.io/images/skaurl/post/beb993c8-e85f-4455-8f7d-9b82ee6dd9
강의 복습 내용 [Day 38] (6강) 빠르게 (7강) 가지치기 ![](https://images.velog.io/images/skaurl/post/de6e9ac4-7266-47ff-b55
강의 복습 내용 [Day 39] (8강) 양자화 Quantization Reduction in the model size. Reduction in memory bandwidth requirements. On-device int8 computations are faster compared to float32 (with FLU) Quanti...
강의 복습 내용 [Day 40] (10강) 행렬 분해 ![](https://images.velog.io/images/skaurl/post/30fe1c09-b6c0-4bc1-bde2-0eb0393959d
마스터 클래스 마스터 소개 Sung Kim님 (UPSTAGE Ai CEO) '까치네' 개발했던 공고출신男, 지금… 185회 차이나는 클라스 - ‘AI와 함께 살기, 준비됐나요?’ [피플] 김성훈 업스테이지 대표 "네이버 경험 살려 한국 'AI 유니콘' 1호 도전" 우리가 찾고 있는 사람 딱 2개 실력 끝판왕 (잘하는 사람) 현업과 커뮤니케이...
가) 오늘 내 학습목표는 무엇이었나요? 첫 제출하기 제출 기회 10번 모두 사용하기 18-class classifier single model test 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? Image Classification Baseline Code와 대회에서 제공된 Baseline Code를 바탕으로 빠르게 첫 제출 ...
가) 오늘 내 학습목표는 무엇이었나요? 3X2X3-class classifier multi model test 다양한 Data Augmentation 적용 5-fold cross-validation, ensemble test 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? Mask, Gender, A...
가) 오늘 내 학습목표는 무엇이었나요? 새로운 traintestsplit으로 test 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? 18-class classifier single model accuracy : 28.56%, f1 : 0.09% 라벨링 에러 18-class classifie...
가) 오늘 내 학습목표는 무엇이었나요? Backbone 점검 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 76.63%, f1 : 0.71% lrscheduler.ReduceLROnPlateau(optimizerft, 'min'), batch_size=64 accuracy : ...
가) 오늘 내 학습목표는 무엇이었나요? FocalLoss 자체 데이터 추가 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 77.97%, f1 : 0.72% data_1 사람 기준 없이 train과 test 데이터로 분리 (train : test = 4 : 1) resnext50_...
가) 오늘 내 학습목표는 무엇이었나요? 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 80.3016%, f1 : 0.7410% 자체 데이터 추가 data_1 사람을 기준으로 train과 test 데이터로 분리 (train : test = 4 : 1) resnet34 transfo...
가) 오늘 내 학습목표는 무엇이었나요? 이미지 매칭 구현 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 78.6667%, f1 : 0.7304% data_1 사람을 기준으로 train과 test 데이터로 분리 (train : test = 19 : 1) resnet34 transf...
가) 오늘 내 학습목표는 무엇이었나요? 이미지 매칭 구현 colab이 죽어서 못했습니다. pseudo labeling 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 73.2381%, f1 : 0.5860% data_1 사람을 기준으로 train과 test 데이터로 분리 (trai...
가) 오늘 내 학습목표는 무엇이었나요? pseudo labeling ensemble 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 81.1270%, f1 : 0.7540% data_1 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1) 5...
가) 오늘 내 학습목표는 무엇이었나요? pseudo labeling ensemble 제출 기회 10번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 81.5397%, f1 : 0.7667% data_1 사람 기준 없이 train과 test 데이터로 분리 (train : test = 9 : 1) 5...
Wrap up Report 본인의 점수 및 순위 LB 점수 accuracy: 81.1746%, f1: 0.7648, 9등 검증(Validation)전략 제공된 dataset에 age filtering(>= 58) 이후 10-fold cross-validation을 적용했습니다. 그리고 train dataset에 pseudo labeling 된 eva...
Reference KorNLU Datasets hyunwoongko/brainbert-base-ko-kornli BM-K/KoSentenceBERT_SKTBERT PORORO-Natural Language Inference 혹시 몰라서 주말 동안 미리 준비했었는데, 무의미해졌습니다. ㅠㅠ 가) 오늘 내 학습목표는 무엇이었나요? Baseline Cod...
가) 오늘 내 학습목표는 무엇이었나요? KoBERT 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 70.3000% train : test = 4 : 1 dataset['sentence'] = dataset['entity01'] + '[SEP]' + dataset['entity02'...
가) 오늘 내 학습목표는 무엇이었나요? Named Entity Recognition 제출 기회 5번 모두 사용하기 토론에 글쓰기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 71.8000% train : test = 4 : 1 dataset['sentence'] = dataset['entity01'] + ' ...
가) 오늘 내 학습목표는 무엇이었나요? 세이버메트릭스 데이터 수집 NEWS 데이터 수집 BERT Pre-Training 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? 세이버메트릭스 크롤링 코드 구현 NEWS 크롤링 코드 구현 다) 오늘 나는 어떤 방식으로 모델을 개선했나요? 개선하지 못했습니다… 라) 오늘 내가 한 행동의 결...
가) 오늘 내 학습목표는 무엇이었나요? KBOBERT Pre-Training 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? KBOBERT Pre-Training 코드 구현 accuracy : 72.9000% accuracy : 73.6000% 다) 오늘 나는 어떤 방식으로 모델을 개선했나요? Baseline Code의 Hy...
가) 오늘 내 학습목표는 무엇이었나요? CNN LSTM Label Smoothing Loss Data 추가 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 73.2000% accuracy : 69.9000% accuracy : 71.6000% accuracy : 75.4000%...
가) 오늘 내 학습목표는 무엇이었나요? xlm-roberta-large 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 76.0000% accuracy : 76.7000% accuracy : 77.7000% ensemble 3 accuracy : 79.0000% accurac...
가) 오늘 내 학습목표는 무엇이었나요? 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 77.8000% accuracy : 78.9000% accuracy : 77.3000% accuracy : 79.8000% ensemble 3 accuracy : 79.8000% ensem...
가) 오늘 내 학습목표는 무엇이었나요? ensemble 제출 기회 5번 모두 사용하기 Wrap up Report 작성 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? accuracy : 79.7000% ensemble accuracy : 43.5000% test accuracy : 79.6000% test accuracy : ...
Wrap up Report 본인의 점수 및 순위 LB 점수 accuracy: 0.0000%, 136등(꼴등) 데이터 부족 (Train : 9,000 + Test : 1,000 = Total : 10,000) 부족한 데이터에 비해 많은 클래스 (Class : 42) 데이터 불균형 데이터 오류 (공식적으로 9개, 비공식은…) Test ...
가) 오늘 내 학습목표는 무엇이었나요? Baseline Code Okapi BM25 + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 1.25% , F1 : 12.14% Baseline Code trainingargs.numtrain_epochs = 10 trainingargs....
가) 오늘 내 학습목표는 무엇이었나요? BM25 + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 6.25%, F1 : 22.72% Okapi BM25 + PORORO tokenizer : bpe64k.ko EM : 4.58%, F1 : 24.39% Okapi BM25 + PO...
가) 오늘 내 학습목표는 무엇이었나요? BM25 + PORORO 공백 및 장문 answer 처리 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 40.42%, F1 : 56.03% BM25Plus + PORORO tokenizer : mecab.bpe64k.ko 공백 및 장문 answer 처리...
가) 오늘 내 학습목표는 무엇이었나요? BM25 + PORORO 위키피디아 문서 문단 단위로 분리 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 0.42%, F1 : 0.00% blank test EM : 35.00%, F1 : 52.15% BM25Plus + PORORO tokenizer...
가) 오늘 내 학습목표는 무엇이었나요? BM25 + PORORO Doc2Vec 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 0.83%, F1 : 7.76% Doc2Vec + PORORO EM : 40.42%, F1 : 56.84% BM25Plus + PORORO tokenizer : tw...
가) 오늘 내 학습목표는 무엇이었나요? BM25Plus + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 45.42%, F1 : 62.26% BM25Plus + PORORO tokenizer : mecab.bpe64k.ko lambda x : ' '.join(re.sub(r'',...
가) 오늘 내 학습목표는 무엇이었나요? BM25Plus + PORORO Dense Embedding + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 47.08%, F1 : 63.60% BM25Plus(k1 = 1, b = 0.5, delta = 0.5) + PORORO toke...
가) 오늘 내 학습목표는 무엇이었나요? Dense Embedding + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 6.25%, F1 : 14.32% Dense Embedding + PORORO EM : 5.42%, F1 : 8.68% Dense Embedding + PORO...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 42.50%, F1 : 58.51% Elasticsearch + PORORO EM : 33.33%, F1 : 48.49% Elasticsearch + PORORO ...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 17.08%, F1 : 48.39% Elasticsearch + PORORO MRC score (start + 0.1 * end) EM : 45.83%, F1 : ...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 47.08%, F1 : 62.43% Elasticsearch + PORORO EM : 15.00%, F1 : 21.02% Elasticsearch + PORORO ...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 50.00%, F1 : 65.89% Elasticsearch + PORORO kss.splitchunks(, maxlength=1500, overlap=True) ...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 49.17%, F1 : 65.54% Elasticsearch + PORORO BM25 + LMDirichlet + LMJelinekMercer EM : 49.58%...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + Generation-based MRC 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 37.92%, F1 : 53.74% Elasticsearch + Generation-based MRC EM : 44.17%, F1 : 58...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + Generation-based MRC 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 47.92%, F1 : 60.51% Elasticsearch + Generation-based MRC EM : 26.25%, F1 : 37...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + Generation-based MRC 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 50.83%, F1 : 63.07% Elasticsearch + PORORO Top-10 MRC score (start + end) EM ...
가) 오늘 내 학습목표는 무엇이었나요? 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 56.25%, F1 : 70.22% Elasticsearch + PORORO Top-10 MRC score (star
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 57.08%, F1 : 71.01% Elasticsearch + PORORO Top-10 MRC score (start + end) (score / max score...
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 59.58%, F1 : 73.22% Elasticsearch + PORORO
가) 오늘 내 학습목표는 무엇이었나요? Elasticsearch + PORORO 제출 기회 5번 모두 사용하기 나) 오늘 나는 내 학습목표를 달성하기 위해 무엇을 어떻게 했나요? EM : 61.25%, F1 : 73.55% Elasticsearch + PORORO
Wrap up Report Github Repo 본인의 점수 및 순위 Public : LB 점수 EM: 66.25%, F1: 78.70%, 2등 Private : LB 점수 EM: 64.17%, F1: 74.88%, 2등 EDA 토론 Colab 기본적인 전략 E