[CS] 운영체제 - 메모리 관리

Janet·2023년 8월 14일
0

CS

목록 보기
9/17
post-thumbnail
post-custom-banner

메모리 관리

운영체제의 대표적인 할 일 중 하나는 메모리 관리이다. 이는 컴퓨터 내의 한정된 메모리를 최대로 활용하기 위함이다.


1. 가상 메모리(virtual memory)

가상 메모리는 메모리 관리 기법 중 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게 실제 메모리보다 더 큰 메모리로 보이게 만드는 기술을 말한다.

  • 가상 주소(logical address / virtual address): 가상적으로 주어진 주소
  • 실제 주소 / 물리 주소(physical address): 실제 메모리상에 있는 주소

가상 주소는 메모리 관리 장치(MMU)에 의해 실제 주소로 변환되며, 따라서 사용자는 실제 주소를 의식할 필요 없이 프로그램을 구축할 수 있게 된다.
가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 페이지 테이블로 관리된다. 이때 속도 향상을 위해 변환 색인 버퍼(TLB)를 쓴다.

  • 메모리 관리 장치(MMU, Memory Management Unit)
    • 가상 메모리 시스템에서 CPU는 가상 주소를 통해 실제(물리) 주소로 접근하는데, 이 때 CPU가 메모리에 접근하는 것을 관리하는 컴퓨터 하드웨어 부품이다. 가상 메모리 주소를 실제 메모리 주소로 변환하며, 메모리 보호, 캐시 관리, 버스 중재 등의 역할을 담당한다.
  • 변환 색인 버퍼(TLB, Translation Look-aside Buffer)
    • TLB는 MMU 내부에 위치하며, 메모리와 CPU 사이에 있는 주소 변환을 위한 캐시로 즉, 가상 메모리 주소를 물리적인 주소(실제 주소)로 변환하는 속도를 높이기 위해 사용되는 캐시이다. 페이지 테이블에 있는 리스트를 보관하며 CPU가 페이지 테이블까지 가지 않도록 하여 속도를 향상시킬 수 있는 캐시 계층이다.

전체적인 흐름은 다음과 같다.


1-1. Demand Paging

요청이 들어오면 프로세스 실행에 필요한 페이지만 물리 메모리에 적재한다.
페이징 기법을 사용하고, 모든 프로세스의 페이지가 메모리에 올라가는 것이 아니라 실제 사용이 될 때 메모리에 적재된다.
필요한 페이지만 물리 메모리에 적재되고, 프로세스의 남은 페이지는 주로 Backing store(주로 disk)에 저장된다.

페이지(page): 가상 메모리를 사용하는 최소 크기 단위
프레임(frame): 실제 메모리를 사용하는 최소 크기 단위

1-2. 스와핑(swapping)

만약 가상 메모리에는 존재하지만 실제 메모리(RAM)에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴트(Page fault)가 발생한다.
이때 메모리에서 당장 사용하지 않는 영역을 보조기억장치(하드디스크 등)으로 옮기고 보조기억장치의 일부분을 마치 메모리처럼 불러와 쓰는 것을 스와핑(swapping)이라고 한다. 이를 통해 마치 페이지 폴트가 일어나지 않은 것처럼 만든다.

  • Swap-in: 디스크에서 메모리로 이동
  • Swap-out: 메모리에서 디스크로 이동

1-3. 페이지 폴트(page fault)

페이지 폴트란 프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 실제 메모리에는 없는 데이터에 접근했을 경우에 발생한다.

Page table에는 유효 비트(valid bit)무효 비트(invalid bit)가 들어있다.

  • v: 유효(valid)하다고 설정되면 해당 페이지가 물리 메모리에 존재하는 경우로, 페이지 테이블에서 사용되고 있는 주소 영역이므로 주소 변환을 통해 물리적인 메모리의 위치를 알 수 있다.
  • i: 무효(invalid)하다고 설정되면 해당 페이지가 물리 메모리에 없는 경우로, 페이지 테이블에서 사용되고 있지 않는 주소 영역이다. (이 경우 페이지 폴트 발생)

🔍 페이지 폴트 처리와 스와핑의 과정

  1. CPU가 특정 데이터에 대한 가상 주소를 MMU에게 요청하면 MMU는 TLB에서 그 가상 주소에 대한 물리 주소가 캐싱돼 있는지 확인한다.
  2. TLB에 캐싱된 물리 주소가 없으면(TLB Miss) MMU가 물리 메모리에 해당 프로세스에 대한 페이지 테이블을 검사해서 해당 주소가 메모리에 적재되어 있는지를 확인하기위해 그 메모리 참조가 유효 비트인지 무효 비트인지를 검사한다.
    👉🏻 만약, TLB에 캐싱된 물리 주소가 있으면(TLB Hit) MMU가 해당 페이지의 물리 주소로 데이터를 갖고 와서 CPU에게 보낸다.
  3. 무효 비트(해당 물리 주소가 메모리에 적재되어 있지 않은 경우)라면 MMU가 page-fault trap을 발생시켜 운영체제에 알린다.
    👉🏻 만약 유효 비트(해당 물리 주소가 메모리에 적재되어 있는 경우)라면 MMU가 해당 페이지의 물리 주소로 데이터를 갖고 와서 CPU에게 보낸다.
  4. 페이지 폴트 trap를 전달받으면 운영체제는 CPU의 동작을 중단한다.
  5. 운영체제는 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고, 없으면 프로세스를 중단하고 현재 물리 메모리에 빈 프레임(free frame)이 있는지 찾는다.
  6. 물리 메모리에 빈 프레임이 없으면, 페이지 교체 알고리즘을 기반으로 스와핑이 발동되는데 희생 프레임(victim frame)을 선정해 디스크에 기록한다.
  7. 운영체제는 디스크에서 가져온 데이터(페이지)를 물리 메모리의 비어 있는 프레임에 로드하고, 페이지 테이블을 업데이트한다. (유효 비트를 수정)
  8. trap으로 인해 중단되었던 CPU를 재개한다.

cf. 트랩(trap): 소프트웨어 인터럽트라고도 한다. 프로세스 오류 등으로 프로세스가 시스템콜을 호출할 때 발동한다.

2. 스레싱(thrashing)


스레싱은 메모리의 Page fault율이 높은 것을 의미하며, 이는 컴퓨터의 심각한 성능 저하를 초래한다.
스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하는 것이다.
페이지 폴트가 일어나면 CPU 이용률이 낮아지고, 그렇게 되면 운영체제는 더 많은 프로세스를 메모리에 올리게 된다. 이와 같은 악순환으로 스레싱이 발생하게 된다.

참고로 메모리에 동시에 올라가 있는 프로세스의 수다중 프로그래밍의 정도(MPD, Multi-Programming Degree)라고 부른다.

스레싱 해결 방법

메모리를 늘리거나, HDD를 SSD로 교체하는 등의 방법이 있다.
이외에 운영체제에서 해결할 수 있는 방법은 작업 세트PFF가 있다.

2-1. 작업 세트(working set)

작업 세트는 프로세스의 과거 사용 이력인 지역성(locality)을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것이다.
미리 메모리에 로드하면 탐색에 드는 비용을 줄일 수 있고 스와핑 또한 줄일 수 있다.

2-2. PFF(Page Fault Frequency)

PFF는 페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만드는 방법이다.
만약 상한선에 도달한다면 프레임을 늘리고, 하한선에 도달한다면 프레임을 줄이는 것이다.

3. 메모리 할당(memory allocation)


메모리에 프로그램(프로세스)을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데, 연속 할당불연속 할당으로 나뉜다.

3-1. 연속 할당(contiguous allocation)

연속 할당은 프로세스가 메모리에 연속적으로 할당되는 방식을 말한다.

3-1-1. 고정 분할 방식(fixed partition allocation)

  • 고정 분할 방식은 여러 프로세스가 사용할 수 있는 공간 즉, 메모리를 미리 나누어 관리하는 방식이다.
  • 메모리가 미리 나뉘어 있기 때문에 융통성이 없으며, 내부 단편화가 발생한다.

3-1-2. 가변 분할 방식(variable partition allocation)

  • 가변 분할 방식은 매 시점 프로세스의 크기에 맞게 동적으로 메모리를 나눠 사용한다.
  • 프로세스가 시작할 때와 종료할 때 Allocation table을 변경하면서 파티션을 관리한다.
  • 내부 단편화는 발생하지 않고 외부 단편화는 발생할 수 있다.
  • 가변 할당 정책에 따라 운영체제에서 관리하는 가용 공간 리스트를 탐색해 다음과 같이 메모리를 할당한다.

가변 분할 방식의 종류

이름설명
최초적합(First-fit)가용 공간의 위쪽이나 아래쪽부터 탐색을 시작해서 홀을 찾으면 바로 할당
최적적합(Best-fit)가용 공간 탐색 후 프로세스의 크기 이상인 공간 중에 가장 차이가 적은 홀부터 할당
최악적합(Worst-fit)프로세스의 크기와 가장 많이 차이가 나는 홀에 할당

💡 용어 해설

  • 내부 단편화(internal fragmentation)
    • 메모리 할당 크기 > 프로세스(프로그램) 크기
    • 메모리를 나눈 크기보다 프로세스(프로그램)이 작아서 공간 내부에서 낭비되는 공간이 발생하는 현상
  • 외부 단편화(external fragmentation)
    • 메모리 할당 크기 < 프로세스(프로그램) 크기
    • 메모리를 나눈 크기보다 프로세스(프로그램)이 커서 들어가지 못하는 공간이 많이 발생하는 현상.
      • 예시) 100MB의 메모리를 55MB와 45MB로 나눴지만 프로세스(프로그램)의 크기는 70MB일 때 들어가지 못하는 것을 말한다.
  • 홀(hole): 할당할 수 있는 비어 있는 메모리 공간이다.

3-2. 불연속 할당(non-contiguous allocation)

메모리를 연속적으로 할당하지 않는 불연속 할당은 현대 운영체제가 쓰는 방법이다.
메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램마다 페이지 테이블을 두어 이를 통해 메모리에 프로그램을 할당하는 것이다.
불연속 할당은 프로세스가 물리적인 메모리 주소의 연속적인 범위에 위치하지 않고 여러 조각으로 분산되어 할당되는 것을 의미하며, 메모리 관리 시스템이 자유 공간(fragmentation)을 최소화하는 데 도움을 준다.
불연속 할당 기법에는 페이징, 세그멘테이션, 페이지드 세그멘테이션이 있다.

3-2-1. 페이징(paging)

  • 페이징은 동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다.
  • 홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해진다.

3-2-2. 세그멘테이션(segmentation)

  • 세그멘테이션은 페이지 단위가 아닌, 의미 단위인 세그먼트(segment)로 나누는 방식이다.
  • 프로세스를 이루는 메모리는 코드 영역, 데이터 영역, 스택 영역, 힙 영역으로 이루어지는데, 코드와 데이터로 나누거나 코드 내의 작은 함수를 세그먼트로 놓고 나눌 수도 있다.
  • 공유와 보안 측면에서 장점을 가지지만 홀 크기가 균일하지 않은 단점이 있다.

3-2-3. 페이지드 세그멘테이션(paged segmentation)

  • 페이지드 세그멘테이션은 프로그램을 의미 단위인 세그먼트(segment)로 나눠 공유나 보안 측면에 강점을 두고 임의의 길이가 아닌 동일한 크기의 페이지 단위로 나누는 것을 말한다.

4. 페이지 교체 알고리즘(page replacement algorithm)


스와핑은 많이 일어나지 않도록 설계되어야 하지만 메모리는 한정되어 있기 때문에 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.

4-1. 오프라인 알고리즘(offline algorithm)

오프라인 알고리즘은 먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘이다.
그러나 미래에 사용되는 프로세스를 미리 알 수 없기에 사용할 수 없는 알고리즘이다.
하지만 가장 좋은 알고리즘으로 다른 알고리즘과의 성능 비교에 대한 상한기준(upper bound)를 제공한다.

4-2. FIFO(Fisrt In First Out)

FIFO, 선입선출 알고리즘가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법을 말한다.

4-3. LRU(Least Recentle Used)

LRU는 참조가 가장 오래된 페이지를 바꾼다.
오래된 것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야 하는 문제점이 있다.
LRU 구현을 프로그래밍으로 구현할 때는 보통 해시 테이블과 이중 연결 리스트 이 2개의 자료 구조로 구현한다. 해시 테이블은 이중 연결 리스트에서 빠르게 찾을 수 있도록 쓰고, 이중 연결 리스트는 한정된 메모리를 나타낸다.

4-4. NUR(Not Used Recently)

LRU에서 발전한 NUR 알고리즘은 일명 clock 알고리즘이라고도 한다.
먼저 0과 1을 가진 비트를 둔다. 1은 최근에 참조되었고 0은 참조되지 않음을 의미한다. 시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 프로세스를 교체하고, 해당 부분을 1로 바꾸는 알고리즘이다.

4-5. LFU(Least Frequently Used)

LRU는 가장 참조 횟수가 적은 페이지를 교체한다. 즉, 많이 사용되지 않은 것을 교체하는 알고리즘이다.


Reference.

profile
😸
post-custom-banner

0개의 댓글