OS02. 메모리

HoyongLee·2022년 9월 4일
0

메모리 계층


메인 메모리(RAM)은 하드디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 이를 필요 시마다 CPU에 빠르게 전달하는 역할을 한다.

캐시

데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄이기 위한 메모리.
메모리와 CPU 사이의 속도 차이가 너무 크기 때문에 중간에 레지스터 계층을 둬서 속도 차이를 해결한다. 캐시 메모리와 보조기억장치 사이에 있는 주기억장치를 보조기억장치의 캐싱 계층이라고 할 수 있다.

지역성의 원리

자주 사용하는 데이터를 기반으로 캐시를 설정해야 한다.

시간 지역성
최근 사용한 데이터에 다시 접근하려는 특성, 예를 들어, 반복문 내의 index 변수에 계속해서 접근한다.

공간 지역성
최근 접근한 데이터를 이루고 있는 공간이나 가까운 공간에 접근하는 특성, 예를 들어, 반복문을 돌리며 arr에 값을 넣을 때 배열에 연속적으로 접근한다.

캐시히트와 캐시미스

  • 캐시히트를 하게 되면 해당 데이터를 제어장치를 거쳐 가져온다. CPU 내부 버스를 기반으로 작동하기 때문에 빠르다.
  • 캐시미스가 발생되면 메모리에서 가져오게 된다. 시스템 버스를 기반으로 작동하기 때문에 느리다.

캐시 매핑

(작성 예정)

웹 브라우저의 캐시

  • 쿠키
    • 만료기한이 있는 키-값 저장소.
    • 4KB까지 데이터를 저장할 수 있다.
    • 만료기한을 지정할 수 있다.
  • 로컬 스토리지
    • 만료기한이 없는 키-값 저장소.
    • 10MB까지 저장할 수 있다.
    • 웹 브라우저를 닫아도 유지된다.
    • 도메인 단위로 저장, 생성된다.
    • 클라이언트에서만 수정 가능.
  • 세션 스토리지
    • 만료기한이 없는 키-값 저장소.
    • 탭 단위로 세션 스토리지를 생성.
    • 탭을 닫을 때 해당 데이터 삭제.
    • 5MB까지 저장 가능
    • 클라이언트에서만 수정 가능.

메모리 관리

가상 메모리

컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것.

가상 메모리의 가상 주소는 MMU(메모리 관리 장치)를 통해 실제 메모리 상의 주소인 실제 주소로 변환된다. 가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 페이지 테이블로 관리된다.

TLB

메모리와 CPU 사이에 있는 주소 변환을 위한 캐시. 페이지 테이블에 있는 리스트를 보관하고 CPU가 페이지 테이블까지 가지 않도록 해 속도를 향상시키는 캐시 계층임.

스와핑

가상 메모리에는 존재하지만 실제 메모리에 없는 경우 페이지 폴트가 발생한다. 이를 방지하기 위해 사용하지 않는 영역을 하드디스크로 옮겨 필요 시 다시 메모리에 올린다.

페이지 폴트

프로세스의 주소 공간에는 존재하지만 실제 메모리에는 없는 데이터에 접근했을 때 발생한다. 운영체제는 다음과 같은 방법으로 페이지 폴트가 전혀 발생하지 않은 것처럼 프로그램이 작동하게 한다.

페이지 : 가상 메모리를 사용하는 최소 크기 단위
프레임 : 실제 메모리를 사용하는 최소 크기 단위
  1. CPU는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩을 발생시켜 운영체제에 알린다.
  2. 운영체제가 CPU 동작을 멈춘다.
  3. 운영체제가 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고, 없으면 프로세스를 중단하고 물리 메모리에 비어 있는 프레임이 있는지 찾는다. 물리 메모리에도 없다면 스와핑이 발동한다.
  4. 비어 있는 프레임에 해당 페이지를 로드하고, 페이지 테이블을 최신화한다.
  5. CPU를 다시 시작한다.

스레싱

메모리의 페이지 폴트율이 높은 것을 의미, 심각한 성능 저하를 초래.

  • 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생한다.
  • 페이지 폴트가 일어나면 CPU 이용률이 낮아진다.
  • CPU 이용율이 낮아지면 운영체제가 CPU가 한가하다고 생각하여 가용성을 높이기 위해 더 많은 프로세스를 메모리에 올려 악순환이 반복되어 스레싱이 일어난다.

해결 방법

  • 실제 메모리가 부족해서 발생하는 것이므로 메모리를 늘린다. 혹은 HDD를 SSD로 교체한다.

운영체제에서의 해결 방법

  • 작업 세트
    프로세스의 과거 사용 이력인 지역성을 통해 결정된 페이지 집합을 만들어 미리 메모리에 로드하는 것이다. 탐색 비용과 스와핑을 감소시킨다.

  • PFF(Page Fault Frequency)
    페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만든다. 상한선에 도달하면 프로세스에 할당되는 페이지를 늘리고 하한선에 도달하면 페이지를 줄인다.(페이지 폴트가 적당한 선에서 발생할 수 있도록)

메모리 할당

메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리 할당 크기를 기반으로 할당한다.

연속 할당

메모리를 미리 나누어 관리하는 고정 분할 방식과 매 시점 프로그램의 크기에 맞게 메모리를 분할하여 사용하는 가변 분할 방식이 있다.

  • 고정 분할 방식
    메모리를 미리 나누어 관리한다. 내부 단편화가 발생한다.
  • 가변 분할 방식
    프로그램의 크기에 맞게 동적으로 메모리를 나눠서 사용한다. 외부 단편화가 발생한다.

불연속 할당

메모리를 연속적으로 할당하지 않는다.

  • 페이징
    동일한 크기의 페이지 단위(보통 4KB)로 나누어 메모리의 서로 다른 위치에 프로세서를 할당한다. 주소 변환이 복잡하다.

  • 세그멘테이션
    의미 단위인 세그먼트로 나누는 방식이다. 프로세스는 코드, 데이터, 스택, 힙 등으로 이루어지는데, 코드, 데이터 기반으로, 함수 단위로 나눌 수 있다. 공유와 보안 측면에서 좋으며 홀 크기가 균일하지 않는 문제가 발생한다.

  • 페이지드 세그멘테이션
    의미 단위의 세그먼트로 나누고, 물리적 메모리는 페이지로 나누는 것을 말한다.

페이지 교체 알고리즘

페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.

오프라인 알고리즘

미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘, 가장 좋은 방법이지만 실현이 어렵다. 따라서 성능 비교를 위해 쓰인다.

FIFO

가장 먼저 온 페이지(메모리에 적재된 시간 기준)를 교체 영역에 가장 먼저 놓는 방법이다.
중요한 페이지가 오래있었다는 이유만으로 교체되어 불합리하다. 계속 쓰일 수도 있는데;

LRU

참조가 가장 오래된 페이지를 바꾼다.
프로세스가 주기억장치에 접근할 때 마다 참조된 페이지에 대한 시간을 기록해야 해서 오버헤드가 발생한다.

NUR(Not Used Recently)

clock 알고리즘으로 불린다.
시계 방향으로 clock hand를 돌리고 reference bit(페이지 사용 여부를 나타냄)가 1이라면 0으로 바꾸고 넘어가고, 0이라면 그 페이지를 교체한다.

LFU(Least Frequently Used)

가장 참조 횟수가 적은 페이지를 교체한다.

profile
아직 반지하

0개의 댓글