K-fold 교차 검증은 모델의 일반화 성능을 신뢰성 있게 측정하는 중요한 표준 도구머신러닝에서 데이터셋을 K개의 하위 집합(폴드)으로 나누어 반복적으로 학습과 평가를 수행하는 대표적인 검증 기법이다. 전체 데이터를 K개로 나눈 뒤, 각 폴드가 한 번씩 검증 세트로 사
정의: 모든 토큰을 하나로 합쳐서 계산토큰 예시: 계산 방식: 전체 TP, FP, FN을 합산 후 계산특징: 빈도가 높은 클래스(예: O)의 영향이 큼전체적인 모델 성능을 반영데이터 불균형에 민감용도: 전체적인 모델 성능 평가공식:정의: 각 클래스별로 계산한 후 평균토
Token-level F1: 각 토큰(단어)별로 라벨이 맞는지 확인Entity-level F1: 전체 엔티티 단위로 완전히 맞는지 확인문장: "김철수는 서울에서 삼성전자에 다닌다"정답 라벨:모델 예측:전체 토큰: 8개맞은 토큰: 6개 (김, 서울, 삼성, 전자, 나머지
BIO Tagging은 개체명 인식(NER)이나 시퀀스 라벨링에서 개체의 시작과 내부를 구분해 문장의 구조를 기계가 이해할 수 있도록 도와주는 방법자연어 처리(NLP)에서 토큰 단위로 개체(entity)의 범위를 표시하는 대표적인 방식이름 그대로 B–I–O 세 가지 태
모델이 예측한 값과 실제 정답 사이의 차이를 수치고 계산하는 함수값이 작을수록 모델이 예측을 잘 했다는 의미이며, 이 값을 최소화하도록 학습하는 것을 최적화(=optimization)라고 함 회귀: MSE, MAE, Huber, Log-Cosh분류: Cross Ent
- NER은 문장에서 사람, 장소, 조직, 시간, 숫자 등 \*\*의미 있는 단위(개체, Entity)\*\*를 찾아내고 분류하는 작업- "이 문장 속에서 중요한 이름이나 값은 뭐지?"를 기계가 알아보게 하는 것문장: - \*\*"스티브 잡스는 1976년에 애플을 공동
어떤 사건의 사전 확률(사건이 일어나기 전 우리가 아는 확률)을, 새로운 증거가 관찰된 후에 사후 확률로 갱신하는 방법$$P(A \\mid B) = \\frac{P(B \\mid A) \\cdot P(A)}{P(B)}$$$P(A)$: 사건 $A$의 사전 확률 (증거를
Independent (독립적): 이전 결과가 다음 결과에 영향 없음Identically Distributed (동일한 분포): 매번 같은 확률분포를 따름IID 조건 중 하나라도 만족하지 않는 경우확률변수 X₁, X₂, ..., Xₙ이 IID 일 때:동일분포: P(Xᵢ
(자료: Wikipedia)Precision (정밀도): 모델이 "맞다"라고 예측한 것 중에 실제로 맞은 비율 (based on (realy) relevant things) $$ \\text{Precision} = \\frac{TP}{TP + FP} $$Recal
같은 데이터라도 AM, GM, HM을 모두 계산할 수는 있지만,항상 “같은 문제의 정답”이 되지는 않는다. 상황에 따라 적절한 평균이 달라진다.계산 자체는 언제나 가능하다 (AM, GM, HM 다 나옴).하지만 상황에 맞는 평균을 골라야 의미 있는 해석이 된다.수학적으
좋아요, 이 질문 정말 핵심을 잘 짚으셨어요 👏"곱셈 구조"와 "비율 구조"는 기하평균과 조화평균이 각각 등장하는 상황에서 중요한 개념입니다. 예시와 함께 쉽게 설명드릴게요.데이터들이 곱해지는 방식으로 누적되는 상황또는 비율(%)이 연속적으로 적용되는 경우예: 한 회
우리가 흔히 아는 "평균"은 사실 산술평균(Arithmetic Mean)이다.그런데 상황에 따라 “곱셈 구조”나 “비율 구조”가 중요할 때 쓰이는 것이그래서 기하평균(Geometric Mean), 조화평균(Harmonic Mean)도 함께 정의한다.$$AM = \\fr
Ubuntu에서 커서를 실행할 때, 매번 아래와 같이 실행할 필요 없이.sh bash 파일을 만들어 실행할 수 있다.
ML과 최적화에서 임계값 설정은 성능 향상과 공정성 등 다양한 목적을 위해 꼭 조정하는 요소기본적인 0.5 임계값 대신 성능 지표 최적화, 비용 분석, 그룹 적응형 임계값 조정, 후처리 임계값 튜닝 등 다양한 기법이 존재하며, 이를 적절히 활용하여 모델의 예측 결정 성
범주: Machine Learning, Statistics모델의 confidence와 실제 accuracy 차이를 평균적으로 측정한 값. $$ ECE = \\sum\_{m=1}^M \\frac{|B_m|}{n} \\; \\big| acc(B_m) - conf(B_m
Temperature(τ)는 사실상 확률 분포의 날카로움(엔트로피)을 조절하는 스케일링 파라미터인데, 비슷한 역할함Hyperparameter들이 머신러닝/딥러닝에서 볼 수 있는 대표적인 것들을 정리해 보자이런 파마미터들은 탐색을 어떻게 할지, 확신을 어떻게 조절할지를
정의: 분포가 뾰족함. 한 선택지의 확률이 거의 1, 나머지는 0에 가까움.예시: 딸기=0.999, 초코=0.001, 바닐라=0 → 사실상 딸기만 선택.의미: 모델이 매우 확신(confident)하는 상태.수학적으로: τ ↓ (작은 temperature)엔트로피: 낮음
Softmax와 연계하여 생각해보자$$P(i) = \\frac{\\exp(z_i / \\tau)}{\\sum_j \\exp(z_j / \\tau)}$$$$\\sum_i P(i) = 1$$어떤 점수 집합이든, temperature τ가 크든 작든 → 항상 합은 1soft
Summary Corpus/Dataset → 텍스트 데이터 모음 Lexicon/Words/Jargon/Abbreviation/Taxonomy → 어휘·용어 중심의 자료 Annotation/Treebank → 주석/구조 중심 자료 Appendix/KB/Ontology
역할: 값을 합침공학적 해석:여러 신호를 더할 때 → 합성 신호확률에서 사건이 독립적이지 않을 때 → 확률 누적ML에서는 여러 가중합(weighted sum) = 뉴런의 입력역할: 차이를 구함공학적 해석:오차(Error) 계산 → $\\text{예측값} - \\text