=> bad 는 좋은 의미로 쓰일 수도 있고 나쁜 의미로 쓰일 수도 있다. 여러 의미를 가지는 단어 중에 어떤 뜻을 선택할 것인가? -> Word Sense 로 파악 Word senses => serve 의 여러 가지 의미 중에 무슨 의미일까? -> word se
페이징 메모리 관리 개요 페이징 개념 1) 페이지와 프레임 프로세스의 주소 공간을 0번지부터 동일한 크기의 페이지로 나눔 물리 메모리 역시 0번지부터 페이지 크기로 나누고, 프레임이라고 부름 코드, 데이터, 스택 등 프로세스의 구성 요소에 상관없이 고정 크기로 분할한
메모리 계층 구조와 메모리 관리 핵심 메모리 계층 구조 메모리는 컴퓨터 시스템 여러 곳에 계층적으로 존재 CPU 레지스터 - CPU 캐시 - 메인 메모리 - 보조기억장치 CPU 레지스터에서 보조기억장치로 갈수록 1) 용량 증가 2) 가격 저렴
교착 상태 : 자원을 소유한 채, 모두 상대방이 소유한 자원을 기다리면서 무한 대기 식사하는 철학자 문제 철학자들의 교착상태 원인과 해결 교착상태 원인 - 환형 요청/대기(circular wait) 5명 모두 왼쪽 포크를 가지고 오른쪽 포크를 요청하는 환형 고리
스레드 동기화의 필요성 스레드 동기화의 필요성 다수의 스레드가 동시에 공유 데이터에 접근하면 공유 데이터가 훼손되는 문제 발생 스레드 동기화 공유 데이터에 대한 다수의 스레드가 동시에 접근할 때 공유데이터가 훼손되는 문제의 해결책 공유데이터를 접근하고자 하는
CPU 스케줄링 개요 운영체제에서 일어나는 다양한 스케줄링 자원에 대한 스케줄링 자원에 대한 경쟁이 있는 곳에는 경쟁자 중 하나 선택 컴퓨터 시스템 여러 곳에서 발생 컴퓨터 시스템 내 다양한 스케줄링 작업 스케줄링 배치시스템에서 대기 중인 배치 작업 중 메
프로세스의 문제점 프로세스의 문제점 1) 프로세스 생성의 큰 오버헤드 프로세스 생성 프로세스를 위한 메모리 할당 - 부모프로세스로부터 복사 PCB 생성, 매핑 테이블(페이지 테이블) 생성 등 2) 프로세스 컨텍스트 스위칭의 큰 오버헤드 컨텍스트 스위칭 CPU가
프로세스 개요 프로세스 개요 ** 프로그램 : 하드디스크 등의 저장 매체에 저장. 실행 파일의 형태 프로세스 : 프로그램이 메모리에 적재되어 실행 중인 상태 필요한 모든 자원 할당 받음 자원 : 코드공간, 데이터공간, 스택공간, 힙공간 프로세스 특징 프로세스 특징
컴퓨터 시스템과 하드웨어 컴퓨터 시스템의 범위 컴퓨터 시스템의 계층 응용프로그램 층 운영체제 층 컴퓨터 하드웨어 층 컴퓨터 시스템 계층 구조의 특징 사용자는 응용프로그램/도구프로그램을 통해 컴퓨터 활용 하드웨어는 모두 운영체제의 배타적 독점적 지배를 받음
Discourse Discourse covers linguistic expression beyond the boundary of the sentence -> 문장의 밖에서도 의미가 전달 됨 1) Dialogues : the structure of turns in con
Foundation for semantic analysis syntax encodes the structure of language but doesn't directly address meaningsyntax alone doesn't "grab" in an action
sequence labeling 할 때, 이제는 HMM 안쓴다! RNN으로 다 할 수 있다! RNNs for POS To make a prediction for y, RNNs condition on all input seen through time t But know
parts of speech are categories of word defined distributionally by the morphological and syntactic contexts a word appears in. -> POS는 words의 categor
Learn parameters to combine the RNN output across all layers for each word in a sentence for a specific task(NER, semantic role labeling, question ans
pre-traiend word embeddings great for words that appear frequently in data Unseen words are treated as UNKs and assigned zero or random vectors; every
"You shall know a word by the company it keeps" \- 문맥(context)에 의해서 단어를 파악한다.앞서 봤던 모델들에 넣는 벡터를 어떻게 만드는지 생각해보자Vector representation that encodes infor
LM : We can use multiclass logistic regression for language modeling by treating the vocabulary as the output space 참고Richer representationsLog-linear
Language models provide us with a way to quantify the likelihood fo a sequence -- i.e., plausible sentences. -> 말이 되면 확률값이 높다. P("Call me Ishmael") =
Prediction 과 Backpropagation 의 반복이다. 처음에 Weight 값을 임의의 값으로 설정하고 y-y햇이 최소화되게끔 업데이트한다. 참고Discrete, high-dimensional representation of inputs (one-hot ve
확률이 0이 되는 것을 막기 위해서 BIAS를 주고 이런 방식으로 h햇을 학습시킨다. 참고Features \- As a discriminative classifier, logistic regression doesn't assum features are independ