메모리

효준·2024년 12월 20일
0
post-thumbnail

메모리 계층

  • 레지스터 : CPU 안에 있는 작은 메모리, 휘발성, 속도 가장 빠름, 기억 용량이 가장 적다.
  • 캐시 : L1, L2 캐시를 지칭한다. 휘발성, 속도 빠름, 기억 용량이 적다. L3 캐시도 있다.
  • 주기억장치 : RAM을 말한다. 휘발성, 속도 보통, 기억 용량이 보통이다.
  • 보조기억장치 : HDD, SSD를 말하며 비휘발성, 속도 낮음, 기억 용량이 많다.

램은 하드디스크로부터 일정량의 데이터를 복사해 임시 저장하고 이를 필요 시마다 CPU에 빠르게 전달한다. 계층 위로 올라갈수록 가격은 비싸지고 용량은 작아지지만 속도는 빨라진다.

이러한 계층이 있는 이유는 경제성과 캐시 때문이다.

캐시

데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄이기 위한 메모리를 말한다. 이를 통해 데이터를 접근하는 시간이 오래 걸리는 경우를 해결하고 무언가를 다시 계산하는 시간을 절약할 수 있다.

실제 메모리와 CU 사이의 속도 차이가 커서 그 중간에 레지스터 계층을 둬 속도 차이를 해결한다. 이 속도 차이를 해결하기 위해 계층과 계층 사이에 있는 계층을 캐싱 계층이라 한다. 캐시 메모리와 보조기억장치 사이에 있는 주기억장치를 보조기억장치의 캐싱 계층이라할 수 있다.

지역성의 원리

캐시 계층을 두지 않고 캐시를 직접 설정 시 자주 사용하는 데이터를 기반으로 설정해야한다. 이때 자주 사용하는 데이터에 대한 근거는 지역성이며 지역성은 시간 지역성과 공간 지역성으로 나뉜다.

시간 지역성

최근 사용한 데이터에 다시 접근하려는 특성을 말한다.

공간 지역성

최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성을 말한다.

캐시히트와 캐시미스

캐시에서 원하는 데이터를 찾았다면 캐시히트라 하며 해당 데이터가 캐시에 없다면 주 메모리로 가서 데이터를 찾아오는 것이다.

위 그림처럼 캐시히트를 하게 되면 해당 데이터를 제어장치를 거쳐 가져온다. 캐시 히트의 경우 위치도 가깝고 CPU 내부 버스를 기반으로 작동해 빠르지만 캐시미스 발생 시 메모리에서 가져오는데, 이는 시스템 버스 기반이여서 느리다.

캐시매핑

캐시가 히트되기 위해 매핑하는 방법이며 CPU의 레지스터와 주 메모리(RAM)간에 데이터를 주고받을 때를 기반으로 설명한다.

레지스터는 주 메모리에 비하면 굉장히 작고 주 메모리는 굉장히 크기 때문에 작은 레지스터가 캐시 계층으로써 역할을 잘 하기 위해 이 매핑을 어떻게 하느냐가 중요하다.

  • 직접 매핑(directed mapping)
    메모리가 1~100이 있고 캐시가 1~10이 있다면 1:1~10, 2:1~20... 이런 식으로 매핑한다.
    처리가 빠르지만 충돌이 잦다.
  • 연관 매핑(associative mapping)
    순서를 일치시키지 않고 관련 있는 캐시와 메모리를 매핑한다. 충돌이 적지만 모든 블록을 탐색해 속도가 느리다.
  • 집합 연관 매핑(set associative mapping)
    직접 매핑과 연관 매핑을 합쳐 놓은 것이다. 순서는 일치시키지만 집합을 둬서 저장하며 블록화되어 있기 때문에 검색은 좀 더 효율적이다. 예를 들어 메모리가 1~100이 있고 캐시가 1~10이 있다면 캐시 1~5에는 1~50의 데이터를 무작위로 저장시키는 것을 말한다.

웹 브라우저의 캐시

소프트웨어적인 대표적 캐시로는 웹 브라우저의 작은 저장소 쿠기, 로컬 스토리지, 세션 스토리지가 있다.
보통 사용자의 커스텀한 정보나 인증 모듈 관련 사항들을 웹 브라우저에 저장해 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나 중복 요청방지를 위해 쓰이며 오리진에 종속된다.

쿠키

만료기한이 있는 키-값 저장소이다. same site 옵션을 strict로 설정하지 않았을 때 다른 도메인에서 요청 시 자동 전송되며, 4KB까지 데이터를 저장할 수 있고 만료기한을 정할 수 있다.

로컬 스토리지

만료기한이 없는 키-값 저장소이다. 5MB까지 저장할 수 있으며 웹 브라우저를 닫아도 유지된다. HTM L5를 지원하지 않는 웹 브라우저에서는 사용할 수 없으며 클라이언트에서만 수정 가능하다.

세션 스토리지

만료기한이 없는 키-값 저장소이다. 탭 단위로 세션 스토리지를 생성하며, 탭을 닫을 때 해당 데이터가 삭제된다. 5MB까지 저장이 가능하며 HTML5를 지원하지 않는 웹 브라우저에서는 사용할 수 없다. 클라이언트에서만 수정 가능하다.

데이터베이스의 캐싱 계층

DB 시스템 구축 시에도 메인 DB 위에 레디스 DB 계층을 '캐싱 계층'으로 둬서 성능을 향상 시키기도 한다.

메모리 관리

가상 메모리

메모리 관리 기법이며 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화해 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만든다.

이때 가상적으로 주어진 주소를 가상 주소라 하며 실제 메모리 상에 있는 주소라고 한다. 가상 주소는 메모리 관리장치에 의해 실제 주소로 변환되며, 이 덕분에 사용자는 실제 주소를 의식할 필요 없이 프로그램을 구축할 수 있다.

가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 '페이지 테이블'로 관리된다. 이때 속도 향상을 위해 TLB를 사용한다.

TLB
메모리와 CPU 사이에 있는 주소 변환을 위한 캐시이다. 페이지 테이블에 있는 리스트를 보관하며 CU가 페이지 테이블까지 가지 않도록 해 속도를 향상시킬 수 있는 캐시 계층이다.

스와핑

만약 가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근 시 페이지 폴트가 발생한다. 이때 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고 하드디스크의 일부분을 마치 메모리처럼 불러와 쓰는것이다. 이를 통해 페이지 폴트가 일어나지 않은 거처럼 만든다.

페이지 폴트

프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 RAM에는 없는 데이터에 접근 시 발생한다.

  1. 명령어가 유효한 가상 주소에 접근했으나 해당 페이지가 없다면 트랩이 발생되어 운영체제에 알린다.
  2. 운영체제는 실제 디스크로부터 사용하지 않은 프레임을 찾는다.
  3. 해당 프레임을 실제 메모리에 가져와서 페이지 교체 알고리즘을 기반으로 특정 페이지와 교체한다.
  4. 페이지 테이블을 갱신 후 해당 명령어를 다시 시작한다.

스레싱

메모리의 페이지 폴트율이 높은 것을 의미하며 컴퓨터의 심각한 성능 저하를 초래한다.


메모리에 너무 많은 프로세스가 동시에 올라갈 시 스와핑이 많이 일어나 발생한다. 페이지 폴트가 일어나면 CUP 이용률이 낮아진다. CPU 이용률이 낮아지게 되면 운영체제는 CPU에 여유가 있다 생각해 가용성을 더 높이기 위해 더 많은 프로세스를 메모리에 올리게 된다. 이처럼 악순환이 반복되어 스레싱이 일어난다.

이를 해결하기 위한 방법으로 메모리를 늘리거나, HDD 사용시 SSD로 교체하거나 운영체제에서는 이를 해결할 수 있는 방법은 작업 세트와 PFF가 있다.

작업 세트

프로세스의 과거 사용 이력인 지역성을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드해 탐색에 드는 비용을 줄이고 스와핑 또한 줄일 수 있다.

PFF

페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만든다. 만약 상한선에 도달 시 프레임을 늘리고 하한선에 도달 시 프레임을 줄인다.

메모리 할당

메모리에 프로그램 할당 시 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데 연속 할당과 불연속 할당으로 나뉜다.

연속 할당

메모리에 연속적으로 공간을 할당하는것을 말한다.

위 그림처럼 프로세스 A, 프로세스 B, 프로세스 C가 순차적으로 공간에 할당하는 것을 볼 수 있다. 이는 메모리를 미리 나눠 관리하는 고정 분할 방식과 매 시점 프로그램의 크기에 맞게 메모리를 분할해 사용하는 가변 분할 방식이 있다.

  • 고정 분할 방식

    메모리를 미리 나눠 관리하는 방식이며, 메모리가 미리 나뉘어 있기 때문에 융통성이 없고 내부 단편화가 발생한다.
  • 가변 분할 방식

    매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용한다. 내부 단편화는 발생하지 않고 외부 단편화는 발생할 수 있다. 이는 최초적합, 최적적합, 최악적합이 있다.
  • 최초적합
    위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당한다.
  • 최적적합
    프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당한다.
  • 최악적합
    프로세스의 크기와 가장 많이 차이가 나는 홀에 할당한다.
  • 내부 단편화(internal fragmentation)
    메모리를 나눈 크기보다 프로그램이 작아서 들어가지 못하는 공간이 많이 발생하는 현상
  • 외부 단편화(external fragmentation)
    메모리를 나눈 크기보다 프로그램이 커서 들어가지 못하는 공간이 많이 발생하는 현상

  • 할당할 수 있는 비어 있는 메모리 공간이다.

불연속 할당

메모리를 연속적으로 할당하지 않는 불연속 할당은 현대 운영체제가 쓰는 방법으로 불연속 할당인 페이징 기법이 있다.

메모리를 동일한 크기의 페이지로 나누고 프로그램마다 페이지 테이블을 두어 메모리에 프로그램을 할당한다. 페이징 기법 말고도 세그멘테이션, 페이지드 세그멘테이션이 있다.

  • 페이징

    동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다. 홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡하다.

  • 세그멘테이션

    페이지 단위가 아닌 의미 단위인 세그먼트로 나누는 방식이다. 프로세스를 이루는 메모리는 코드 영역, 데이터 영역, 스택 영역, 힙 영역으로 이루어지는데, 코드와 데이터로 나누거나 코드 내의 작은 함수를 세그먼트로 놓고 나눌 수도 있다. 이는 공유와 보안 측면에 장점이 있지만 홀 크기가 균일하지 않은 단점이 있다.

  • 페이지드 세그멘테이션

    프로그램을 의미 단위인 세그먼트로 나눠 공유나 보안 측면에 강점을 두고 임의의 길이가 아닌 동일한 크기의 페이지 단위를 나누는 것이다.

페이지 교체 알고리즘

메모리는 한정되어 있어 스와핑이 많이 일어난다. 스와핑은 많이 일어나지 않돌고 설계되어야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.

오프라인 알고리즘

먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘이며, 가장 좋은 방법이다. 미래에 사용되는 프로세스를 알수 없지만 가장 좋은 알고리즘이기 때문에 다른 알고리즘과의 성능 비교에 대한 상한기준을 제공한다.

FIFO(First In First Out)

가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법을 의미한다.

LRU

참조가 가장 오래된 페이지를 바꾼다. 오래된 것을 파악해 각 페이지마다 계수기, 스택을 두어야 하는 단점이 있다.

위 그림처럼 5번째에 5번 페이지가 들어올 때 가장 오래된 1번 페이지와 스왑하는데 이것이 LRU 방식이다.

LRU 구현을 프로그래밍으로 구현 시 보통 두 개의 자료 구조로 구현한다. 바로 해시 테이블과 이중 연결 리스트이다. 해시 테이블은 이중 연결 리스트에서 빠르게 찾을 수 있도록 쓰고 이중 연결 리스트는 한정된 메모리를 나타낸다.

NUR(Not Used Recently)

LRU에서 발전한 NUR 알고리즘이다. clock 알고리즘이라고 하며 먼저 0과 1을 가진 비트를 둔다. 1은 최근에 참조되었고 0은 참조되지 않음을 의미한다. 시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 프로세스를 교체해 해당 부분을 1로 바꾼다.

LFU

가장 참조횟수가 적은 페이지를 교체한다.

profile
사진은 캣타워가 생겨 포효하는 고양이입니다.

0개의 댓글

관련 채용 정보