[개발자 대화를 위한 넓고 얕은 CS 지식] 메모리

Joosi_Cool·2023년 5월 1일
1
post-thumbnail

이번 블로깅에 대해선 메모리 에 대해 넓고 얕게 알아보자.

이전 블로깅에서 다루었던 CPU는 메모리에 올라와 있는 프로그램의 명령어를 실행할 뿐이다. 이번 블로깅에선 메모리 계층과 메모리 관리에 대해 알아보자.

메모리 계층

메모리 계층은 레지스터, 캐시, 메모리, 저장장치로 구성되어 있다.

  1. 레지스터: CPU 안에 있는 작은 메모리를 말한다.
  2. 캐시: L1, L2 캐시를 지칭한다.
  3. 주기억장치: RAM을 가리킨다.
  4. 보조기억장치: HDD, SSD를 말한다.

빈도, 속도, 가격은, 용량은 위와 같이 차이가 난다.
참고로 위로 올라갈수록 비싼데, 용량은 작아지고 속도는 빨라진다는 특징이 있다. 이렇게 계층을 두는 이유는 경제성과 캐시 때문이다.

캐시

캐시(cache)는 데이터를 미리 복사해 놓는 임시 저장소 이자 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄이기 위한 메모리를 말한다. 이를 통해 데이터 접근 시간이 오래걸리는 것을 해결할 수 있으며, 무언가를 다시 계산하는 시간을 절약할 수 있다.

예시로, 메모리와 CPU 사이의 속도 차이가 너무 크기 때문에 레지스터 계층을 둬서 속도를 차이를 줄인다. 이렇게 계층과 계층 사이의 속도 차이를 해결하기 위해 계층과 계층 사이에 있는 계층을 캐싱 계층 이라고 할 수 있다.

지역성의 원리

캐싱 계층을 두는 것 말고 캐시를 직접 설정해야 할때는 어떻게 할까?
이는 자주 사용하는 데이터를 기반으로 설정해야 한다. 그렇다면 자주 사용한다.... 에 기준이 뭘까? 바로 지역성 이다. 지역성은 시간 지역성과 공간 지역성으로 나뉜다.

  1. 시간 지역성
    이는 최근 사용한 데이터에 다시 접근하려는 특성을 말한다.

  2. 공간 지역성
    이는 최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성을 말한다.

캐시히트와 캐시미스

1. 개념

캐시에서 원하는 데이터를 찾았다면 캐시히트라고 하며, 해당 데이터가 캐시에 없다면 주메모리에 가서 데이터를 찾아오는 것을 캐시미스라고 한다.

캐시히트를 하게 되면 위의 그림처럼 해당 데이터를 제어장치를 거쳐 가져오게 된다. 캐시히트의 경우 위치도 가깝고, CPU 내부 버스를 기반으로 이동하기 때문에 빠르다.
반면에 캐시미스는 메모리에서 가져오게 되는데, 이는 시스템 버스를 기반으로 작동하기 때문에 느리다.

2. 캐시매핑

캐시매핑이란 캐시가 히트되기 위해 매핑하는 방법을 말한다. CPU의 레지스터와 주 메모리(RAM) 간에 데이터를 주고받을 때를 기반으로 설명한다. 레지스터는 주 메모리에 비하면 굉장히 작고 주 메모리는 굉장히 크기 때문에 작은 레지스터가 캐시 계층으로써 역할을 잘 해주려면 캐시 매핑의 역할이 중요하다.

  • 종류
  1. 직접 매핑
    -> 메모리가 1~100이 있고, 캐시가 1~10이 있다면 1:1~10, 2:1~20 이런 식으로 매핑하는 것을 말한다. 처리가 빠르지만 충돌 발생이 잦다.

  2. 연관 매핑
    -> 순서를 일치시키지 않고, 관련 있는 캐시와 메모리를 매핑한다. 충돌은 적지만 모든 블록을 탐색해야 해서 속도가 느리다.

  3. 집합 연관 매핑
    -> 직접 매핑 + 연관매핑
    순서는 일치시키지만, 집합을 둬서 저장하며 블록화 되어있다. 이 때문에 검색은 좀 더 효율적이다

    3. 웹 브라우저의 캐시

    대표적인 캐시로는 웹 브라우저의 작은 저장소 쿠키, 로컬 스토리지, 세션 스토리지가 있다. 이러한 것들은 보통 사용자의 커스텀한 정보나 인증 모듈 관련 사항들을 웹 브라우저에 저장해서 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나 중복 요청 방지에 쓰인다.

  • 추가 설명
    1 . 쿠키
    이는 만료기한이 있는 키-값 저장소이다. 4KB까지 데이터를 저장할 수 있고, 만료 기한을 정할 수 있다.
  1. 로컬 스토리지
    이는 만료기한이 없는 키-값 저장소이다. 10MB까지 저장할 수 있으며 웹 브라우저를 닫아도 유지되고 도메인 단위로 저장, 생성된다.

  2. 세션 스토리지
    만료기한이 없는 키-값 저장소이다. 이는 탭 단위로 세션 스토리지를 생성하며, 탭을 닫을 때 해당 데이터가 삭제된다. 5MB까지 저장이 가능하다.





    메모리 관리

컴퓨터 내에서 한정된 메모리를 극한으로 활용하는 것은 매우 당연히 중요할 것이다. 이는 운영체제에서 하는 대표적인 일 중 하나이다.

가상 메모리

가상 메모리 (virtual memory)는 메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상홯여 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것을 말한다.

이때 가상적으로 주어진 주소를 가상 주소라고 하며, 실제 메모리상에 있는 주소를 실제 주소라고 한다.
가상 주소는 메모리관리장치에 의해 실제 주소로 변환되며, 이 덕분에 실제 주소를 의식할 필요 없이 프로그램을 구축할 수 있다.

가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 페이지 테이블 로 관리된다. 이때 속도 향상을 위해 TLB 를 쓴다.

TLB란?
메모리와 CPU 사이에 있는 주소 변환을 위한 캐시이다. 페이지 테이블에 있는 리스트를 보관하며 CPU가 페이지 테이블까지 가지 않도록 해 속도를 향상 시킬 수 있는 캐시 계층이다.

스와핑

만약 가상 메모리에는 존재하지만, 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴트가 발생한다. 이때 메모리에 당장 사용하지 않는 영역을 하드 디스트로 옮기고 하드 디스크의 일부분을 마치 메모리 처럼 불러와 쓰는 것 을 스와핑(swapping)이라고 한다. 이를 통해 페이지 폴트가 발생 안한 것처럼 만든다.

페이지 폴트

페이지 폴트는 프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 RAM에는 없는 데이터에 접근했을 경우에 발생한다. 페이지 폴트와 그로 인한 스와핑은 다 음 과정으로 이루어진다.

  1. CPU는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩을 발생시켜 운영체제에 알린다.
  2. 운영체제는 CPU를 잠시 멈춘다.
  3. 운영체제는 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고, 없으면 프로세스를 중단하며 현재 물리 메모리에 비어 있는 프레임이 있는지 찾는다. 물리 메모리에도 없다면 스와핑 발동
  4. 비어 있는 프레임에 해당 페이지를 로드하고, 페이지 테이블을 최신화 한다.
  5. 중단되었던 CPU 다시 시작

-> 1. 페이지(page): 가상 메모리를 사용하는 최소 크기 단위
-> 2. 프레임(frame): 실제 메모리를 사용하는 최소 크기 단위



스레싱

스레싱(thrashing)은 메모리의 페이지 폴트율이 높은 것을 의미하며, 이는 컴퓨터에 심각한 성능 저하를 초래한다.

스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나 발생하는 것이다. 페이지 폴드가 일어나면 CPU 이용률이 낮아진다. 이 떄문에 운영체제는 CPU가 한가하다고 생각하고 가용성을 더 높이기 위해 더 많은 프로세스를 메모리에 올리게 되는 악순환이 반복되면서 스레싱이 발생한다.

이를 해결하기 위해선 메모리를 늘리거나, HDD를 사용한다면 HDD를 SSD로 바꾸기 위한 방법이 있다.
또한 다른 방법으로는 작업 세트와 PFF가 있다.

작업 세트

이는 프로세스의 과거 사용 이력인 지역성을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것이다. 이를 통해 탐색에 드는 비용을 줄일 수 있고, 스와핑 또한 줄일 수 있다.

PFF

PFF(Page Fault Frequency)는 페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만드는 방법이다. 만약 상한선에 도달하면 프레임을 늘리고 하한선에 도달하면 프레임을 줄이는 방식이다.



메모리 할당

메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데, 연속 할당과 불연속 할당으로 나뉜다.

1. 연속할당

연속할당은 메모리에 연속적으로 공간을 할당하는 것을 말한다.
각각의 프로세스를 순차적으로 공간에 할당한다. 이는 메모리를 미리 나누어 관리하는 고정 분할 방식과 매 시점 프로그램의 크기에 맞게 메모리를 분할하여 사용하는 가변 분할 방식이 있다.

1) 고정 분할 방식
이는 메모리를 미리 나누어 관리하는 방식이며, 메모리가 미리 나뉘어 있기 때문에 융통성이 없다. 또한 내부 단편화가 발생한다.

2) 가변 분할 방식
이는 매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용한다.
내부 단편화가 발생하지 않는 대신 외부 단편화가 발생할 수 있다.
-> 종류

최초적합: 위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당
최적적합: 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당
최악적합: 프로세스의 크기와 가장 많이 차이가 나는 것을 홀에 할당

2. 불연속할당

메모리를 연속적으로 할당하지 않는 불연속 할당은 현대 운영체제가 쓰는 방법으로 불연속 할당인 페이징 기법 이 있다. 이 뿐 아니라 세스멘테이션, 페이지드 세그멘테이션 이 있다.

  1. 페이징
    이는 동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다. 홀의 크기가 균일하지 않은 문제가 없어지지 않지만 주소 변환이 복잡해진다.

  2. 세그멘테이션
    이는 페이지 단위가 아닌, 의미 단위세그먼트 로 나누는 방식이다.
    프로세스를 이루는 메모리는 코드 영역, 데이터 영역, 스택 영역, 힙 영역으로 이루어지는데, 코드와 데이터로 나누거나 코드 내의 작은 함수를 세그먼트로 놓고 나눌 수도 있다. 이는 공유와 보완 측면에서 장점을 가지지만 홀 크기가 균일하지 않은 단점이 있다.

  3. 페이지드 세그멘테이션
    이는 프로그램을 의미 단위인 세그먼트로 나눠 공유나 보안 측면에 강점을 두고 임의 길이가 아닌 동일한 크기의 페이지 단위로 나누는 것을 말한다.




페이지 교체 알고리즘

메모리는 한정되어 있기 때문에 스와핑이 많이 일어난다. 스와핑이 많이 일어나지 않도록 설계되어야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.

오프라인 알고리즘

이는 먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘이며, 가장 좋은 방법이다. 그러나 미래에 사용되는 프로세스를 우리가 알 수 없다. 즉, 사용할 수 없는 알고리즘이지만 가장 좋은 알고리즘이기 때문에 다른 알고리즘의 성능 비교에 대한 상한기준을 제공한다.

FIFO

이는 가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법을 말한다.

LRU

LRU(Least Recentle Used)는 참조가 가장 오래된 페이지를 바꾼다. 오랜된 것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야 한다는 문제점이 있다.

NUR

LRU에서 발전한 NUR(Not Used Recently) 알고리즘은 일명 clock 알고리즘이라고도 한다. 먼저 0과 1을 가진 비트를 둔다. 1은 최근에 참조되었고, 0은 참조되지 않음을 의미한다. 시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당하는 프로세스를 교체하고, 해당 부분을 1로 바꾸는 알고리즘이다.

LFU

LFU(Least Frequently Used) 는 가장 참조 횟수가 적은 페이지를 교체한다. 즉, 많이 사용되지 않은 것을 교체한다.




마무리

이번 블로깅에선 메모리에 대해 알아보았다. 이 블로깅의 목적은 깊게 배우는 것이 아니라 개발자 대회에 낄 정도의 넒고 얕은 지식을 목표로 하고 있다. 이 블로깅을 통해서 전체적인 메모리 에 대해 잡았으면 좋겠다. 그리고 감을 잡았고 좀 더 깊게 배우고 싶다면 이 블로깅의 키워드를 길로 잡아서 하나씩 공부해 나간다면 매우 도움이 될 것이라고 생각한다.

profile
집돌이 FE개발자의 노트

0개의 댓글