[컴퓨터 구조] 복습용 자료_1

slchoi·2022년 1월 12일
0

CS 요약본

목록 보기
3/3
post-thumbnail

컴퓨터구조 복습용 자료입니다.

1. 컴퓨터의 구성


  • 컴퓨터 시스템은 크게 하드웨어와 소프트웨어로 나눠짐
    • 하드웨어: 컴퓨터를 구성하는 기계적 장치
    • 소프트웨어: 하드웨어의 동작을 지시하고 제어하는 명령어 집합

하드웨어

  • 중앙처리장치 (CPU)
  • 기억장치: RAM, HDD
  • 입출력 장치

소프트웨어

  • 시스템 소프트웨어: 운영체제, 컴파일러
  • 응용 소프트웨어

하드웨어

중앙처리장치 (CPU)

  • 주기억장치에서 프로그램 명령어와 데이터를 읽어와 처리하고 명령어의 수행 순서를 제어
  • 비교와 연산을 담당하는 산술논리연산장치(ALU)와 명령어의 해석과 실행을 담당하는 제어장치, 속도가 빠른 데이터 기억장소인 레지스터로 구성되어 있음

기억장치

  • 프로그램, 데이터, 연산의 중간 결과를 저장하는 장치
  • 주기억장치와 보조기억장치로 나눠짐. 주기억장치에는 프로그램에 필요한 데이터를 일시적으로 저장
  • 보조기억장치는 하드디스크 등을 말하며, 주기억장치에 비해 속도는 느리지만 많은 자료를 영구적으로 보관 가능

입출력 장치

  • 입력 장치: 컴퓨터 내부로 자료를 입력하는 장치
  • 출력 장치: 컴퓨터 외부로 표현하는 장치

시스템 버스

하드웨어 구성 요소를 물리적으로 연결하는 선

  • 각 구성요소가 다른 구성요소로 데이터를 보낼 수 있도록 통로가 되어줌
  • 용도에 따라 데이터 버스, 주소 버스, 제어 버스로 나눠짐
종류설명
데이터 버스중앙처리장치와 기타 장치 사이에서 데이터를 전달하는 통로. 기억장치와 입출력 장치의 명령어와 데이터를 중앙처리장치로 보내거나, 중앙처리장치의 연산 결과를 기억장치와 입출력장치로 보내는 양방향 버스
주소 버스중앙처리장치가 주기억장치나 입출력장치로 기억장치 주소를 전달하는 통로이므로 단방향 버스
제어 버스주소 버스와 데이터 버스는 모든 장치에 공유되기 때문에 이를 제어할 수단이 필요. 제어 버스는 중앙처리장치가 기억장치나 입출력장치에 제어 신호를 전달하는 통로. 읽기 동작과 쓰기 동작을 모두 수행하므로 양방향 버스

2. 중앙처리장치(CPU) 작동 원리


연산장치 (산술논리 연산장치)

  • 산술연산과 논리연산 수행
  • 연산에 필요한 데이터를 레지스터에서 가져오고, 연산 결과를 다시 레지스터로 보냄

제어장치

  • 명령어를 순서대로 실행할 수 있도록 제어하는 장치
  • 주기억장치에서 프로그램 명령어를 꺼내 해독하고, 그 결과에 따라 명령어 실행에 필요한 제어 신호를 기억장치, 연산장치, 입출력장치로 보냄
  • 장치가 보낸 신호를 받아 다음에 수행할 동작을 결정

레지스터

  • 고속 기억장치
  • 명령어 주소, 코드, 연산에 필요한 데이터, 연산 결과 등을 임시로 저장
  • 중앙처리장치 종류에 따라 사용할 수 있는 레지스터 개수와 크기가 다름
  • 용도에 따라 범용 레지스터와 특수목적 레지스터로 구분됨
    • 범용 레지스터: 연산에 필요한 데이터나 연산 결과를 임시로 저장
    • 특수목적 레지스터: 특별한 용도로 사용하는 레지스터

특수목적 레지스터 중 중요한 것

  • MAR(메모리 주소 레지스터): 읽기와 쓰기 연산을 수행할 주기억장치 주소 저장
  • PC(프로그램 카운터): 다음에 수행할 명령어 주소 저장
  • IR(명령어 레지스터): 현재 실행 중인 명령어 저장
  • MBR(메모리 버퍼 레지스터): 주기억장치에서 읽어온 데이터 or 저장할 데이터 임시 저장
  • AC(누산기): 연산 결과 임시 저장

CPU 동작 과정
1. 주기억장치는 입력장치에서 입력받은 데이터 또는 보조기억장치에 저장된 프로그램을 읽어옴
2. CPU는 프로그램을 실행하기 위해 주기억장치에 저장된 프로그램 명령어와 데이터를 읽어와 처리하고 결과를 다시 주기억장치에 저장
3. 주기억장치는 처리 결과를 보초기억장치에 저장하거나 출력장치로 보냄
4. 제어장치는 1~3번 과정에서 명령어가 순서대로 실행되도록 각 장치를 제어

명령어 세트

  • CPU가 실행할 명령어의 집합

    연산 코드(Operation Code) + 피연산자(Operand)로 이루어짐

    • 연산 코드: 실행할 연산
    • 피연산자: 필요한 데이터 or 저장위치
  • 연산코드는 연산, 제어, 데이터 전달, 입출력 기능을 가짐

  • 피연산자는 주소, 숫자/문자, 논리 데이터 등을 저장

  • CPU는 프로그램 실행을 위해 주기억장치에서 명령어를 순차적으로 인출하여 해독하고 실행하는 과정을 반복

  • 명령어 사이클: CPU가 주기억장치에서 한번에 하나의 명령어를 인출하여 실행하는데 필요한 일련의 활동

    • 인출/실행/간접/인터럽트 사이클로 나눠짐
    • 주기억장치의 지정된 주소에서 하나의 명령어를 가져오고, 실행 사이클에서는 명령어를 실행
    • 하나의 명령어 실행이 완료되면 그 다음 명령어에 대한 인출 사이클 시작

인출 사이클과 실행 사이클에 의한 명령어 처리 과정

인출 사이클에서 가장 중요한 부분은 PC(프로그램 카운터) 값을 증가시키는 것

  • PC에 저장된 주소를 MAR로 전달
  • 저장된 내용을 토대로 주기억장치의 해당 주소에서 명령어 인출
  • 인출한 명령어를 MBR에 저장
  • 다음 명령어 인출을 위해 PC 값을 증가시킴
  • MBR에 저장된 내용을 IR에 전달

3. 캐시 메모리(Cache Memory)


  • 속도가 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄이기 위한 메모리를 의미

ex1) CPU 코어와 메모리 사이의 병목 현상 완화
ex2) 웹 브라우저 캐시 파일은, 하드디스크와 웹페이지 사이의 병목 현상을 완화

  • CPU가 주기억장치에서 저장된 데이터를 읽어올 때, 자주 사용하는 데이터를 캐시 메모리에 저장한 뒤, 다음에 이용할 때 주기억장치가 아닌 캐시 메모리에서 먼저 가져오면서 속도를 향상시킴
  • 속도가 빨라지지만, 용량이 적고 비용이 비쌈
  • CPU에는 캐시 메모리가 2~3개 사용됨 (L1, L2, L3 캐시 메모리)
    • 속도와 크기에 따라 분류한 것
    • 일반적으로 L1 캐시부터 먼저 사용됨. CPU에서 가장 빠르게 접근하고, 여기서 데이터를 찾지 못하면 L2로 이동
    • L1: CPU 내부에 존재, L2: CPU와 RAM 사이에 존재, L3: 메인보드에 존재

듀얼 코어 프로세서의 캐시 메모리

  • 각 코어마다 독립된 L1 캐시 메모리를 가지고, 두 코어가 공유하는 L2 캐시 메모리가 내장됨

디스크 캐시

  • 주기억장치(RAM)과 보조기억장치(하드디스크) 사이에 존재하는 캐시

1. 캐시 메모리 작동 원리

  • 시간 지역성
    for나 while 같은 반복문에 사용하는 조건 변수처럼 한번 참조된 데이터는 잠시 후 또 참조될 가능성이 높음
  • 공간 지역성
    A[0], A[1]과 같은 연속 접근 시, 참조된 데이터 근처에 있는 데이터 근처에 있는 데이터가 잠시 후 또 사용될 가능성이 높음
  • 캐시에 데이터를 저장할 때는, 이러한 참조 지역성(공간)을 최대한 활용하기 위해 해당 데이터뿐만 아니라, 옆 주소의 데이터오 같이 가져와 미래에 사용될 것을 대비
  • CPU가 요청한 데이터가 캐시에 있으면 'Cache Hit', 없어서 DRAM에서 가져오면 'Cache Miss'
    • Miss가 발생되었다면 해당 데이터를 찾아와야하는 비용이 생기는데 이를 Cache Penalty라고 함
    • Hit이 발생되어 원하는 데이터를 가져오는 비용을 Hit Latency라고 함

Cache miss 경우 3가지
1. Cold miss: 해당 메모리 주소를 처음 불러서 발생하는 miss
2. Conflict miss: 캐시 메모리에 A와 B 데이터를 저장해야 하는데, A와 B가 같은 캐시 메모리 주소에 할당되어 있어 발생하는 miss (direct mapped cache에서 많이 발생)
3. Capacity miss: 캐시 메모리의 공간이 부족해서 발생하는 miss

  • Confilict는 주소 할당 문제, Capacity는 공간 문제

캐시 크기를 키워 문제를 해결하려할 경우, 캐시 접근속도가 느려지고 파워를 많이 먹는 단점이 발생

2. 구조 및 작동 방식

Direct Mapped Cache

사진 출처: https://namu.moe/w/%EC%BA%90%EC%8B%9C%20%EB%A9%94%EB%AA%A8%EB%A6%AC

  • 가장 기본적인 구조
  • DRAM의 여러 주소가 캐시 메모리의 한 주소에 대응되는 다대일 방식
    • ex) 00000, 01000, 10000, 11000인 메모리 주소는 000 캐시 메모리 주소에 맵핑
      • 이 때, 000이 인덱스 필드, 인덱스를 제외한 앞의 나머지(01, 10, 11)이 태그 필드
  • 캐시 메모리는 인덱스 필드 + 태그 필드 + 데이터 필드로 구성됨
  • 간단하고 빠르다는 장점이 있지만, Conflict Miss가 발생하는 단점이 있음
    • 같은 색깔의 데이터를 동시에 사용해야할 경우 발생

Fully Associative Cache

  • 비어있는 캐시 메모리가 있으면, 마음대로 주소를 저장하는 방식
  • 저장할 대는 매우 간단하지만 찾기가 힘듦
  • 조건이나 규칙이 없어 특정 캐시 set 안에 있는 모든 블럭을 한번에 찾아 원하는 데이터가 있는지 검색해야 함
    • CAM이라는 특수한 메모리 구조를 사용해야하지만 가격이 매우 비쌈

Set Associative Cache

  • Direct + Fully 방식
  • 특정 행을 지정하고, 그 행안의 어떤 열이든 비어있을 때 저장하는 방식
  • Direct에 비해 검색 속도는 느리지만, 저장이 빠르고 Fully에 비해 저장이 느린 대신 검색이 빠른 중간형

3. 캐시 일관성(Cache Coherence)

  • 캐시 일관성: 공유 메모리 시스템에서 각 프로세서(클라이언트)가 가진 로컬 캐시 간의 일관성을 의미
  • 각 클라이언트가 자신 만의 로컬 캐시를 가지고 다른 여러 클라이언트와 메모리를 공유하고 있을 때 캐시의 갱신으로 인한 데이터 불일치 문제가 발생
  • 예를 들어, 변수 X에 대해 두 클라이언트가 변수 X를 공유하고 있고 그 값이 0이라고 하면
    • 클라이언트 1이 X에 1을 대입하고
    • 클라이언트 2가 변수 X를 읽어들이게 되면
    • 클라이언트 2는 클라이언트 1에 의해 수정된 값인 1을 받아들이는 것이 아니라
    • 현재 자신의 로컬 캐시에 있는 0을 읽어들이게 됨
    • 캐시 1, 2는 같은 X라는 변수에 대해 다른 값을 가지게 되므로 데이터 불일치 문제가 발생
  • 따라서 하드웨어 차원에서 항상 최신 내용을 읽을 수 있게 캐시 일관성을 지원해야 함
  • 캐시 일관성을 유지한다는 것은 데이터 불일치 현상을 없애는 것을 의미
    • 캐시 일관성을 유지하기 위해서는 다른 프로세서가 갱신한 캐시 값을 곧바로 혹은 지연하여 다른 프로세서에서 사용할 수 있도록 해주어야 함

4. 캐시 일관성 프로토콜

디렉토리 프로트콜

  • 디렉토리 기반 일관성 구조는 캐시 블록의 공유 상태, 노드 등을 기록하는 저장 공간인 디엑토리를 이용해 관리하는 구조
  • 데이터의 복사본이 존재하는 위치에 대한 정보를 수집하고 유지
  • 디렉토리 기반 구조는 어떤 노드에서 해당 캐시 블록의 복사본을 가지고 있는지 알고 있기 때문에 특정 노드에만 요청을 하게 됨
  • 따라서 브로드캐스트가 불필요하게 되어 대역폭이 상대적으로 작아짐
  • 주기억장치 제어기의 일부로 존재하는 중앙 제어기는 프로세서가 가진 목사본의 라인 정보를 가지고 있음
    • 중앙 제어기는 모든 지역 캐시 제어기의 동작을 제어하고 보고받아 캐시 일관성을 유지
  • 중앙 병목 및 캐시 제어기들과 중앙 제어기 간의 통신 오버헤드를 가지는 단점이 있지만 다중 버스나 복잡한 상호연결망을 포함하는 대규모 시스템에 효과적
  • 64개 이상의 프로세서를 가지는 대규모 시스템에서는 디렉토리 기반의 캐시 일관성 프로토콜을 사용하는 경우가 많음

스누핑 프로토콜

  • 스누핑(snooping): 주소 버스를 항상 감시해 캐시 상의 메모리에 대한 접근이 있는지를 감시하는 구조
  • 다른 캐시에서 쓰기가 발생하면 캐시 컨트롤러에 의해 자신의 캐시 위에 있는 복사본을 무효화시킴
  • 캐시 일관성 유지에 대한 책임을 다중 프로세서 내의 모든 캐시 제어기들에게 분산
  • 캐시는 자신이 가진 라인이 다른 캐시와 공유되는지를 파악하고 있으며 공유 캐시 라인이 갱신되었을 때 각 캐시 제어기는 브로드캐스팅된 캐시 갱신 소식을 받아 해당 캐시를 무효화
  • 공유 버스가 브로듴캐스팅과 스누핑에 유리하므로 스누핑 프로토콜은 버스 기반 다중 ㅍ프로세서에 적합
  • write-invalidate, wirte-update, write broadcast 등으로 스누핑 방식을 구현
  • 이 방법은 모든 캐시 라인의 상태를 Modified, Exclusive, Shared, Invalid로 표현하기에 MESI 프로토콜이라고도 함

    MESI 프로토콜

    • 캐시 메모리의 일관성 유지를 위해 별도의 플래그(flag)를 할당한 후 플래그의 상태를 통해 데이터의 유효성 여부를 판단하는 프로토콜
    • 데이터 캐시는 태그 당 두 개의 상태 비트를 포함
    • 멀티프로세서 시스템에서 캐시 메모리의 일관성을 유지하기 위해 메모리가 가질 수 있는 4가지 상태를 정의
      • Modified(수정) 상태: 데이터가 수정된 상태
      • Exclusive(배타) 상태: 유일한 복사본이며, 주기억장치의 내용과 동일한 상태
      • Shared(공유) 상태: 데이터가 두 개 이상의 프로세서 캐쉬에 적재되어 있는 상태
      • Invalid(무효) 상태: 데이터가 다른 프로세스에 의해 수정되어 무효화된 상태
  • 스누핑의 경우 각 노드의 대역폭이 충분히 크다면 좋은 성능을 기대할 수 있으나 성능 확장성이 좋지 않음
    • 이유: 메모리 요청에 대해 다른 모든 노드에 브로드캐스트해야 하기 때문
    • 노드의 수가 증가하면 더 많은 브로드캐스트가 발생하게 되고 이 때문에 버스의 대역폭도 더 늘어나야만 함

출처
https://github.com/gyoogle/tech-interview-for-developer
https://goodgid.github.io/Cache-Coherence/

컴퓨터 구조에 대해 더 자세히 알고 싶다면 컴퓨터구조 시리즈 게시물 참고

profile
예비 백엔드 개발자

0개의 댓글