0. 메모리
메모리란?
CPU는 그저 ‘메모리’에 올라와 있는 프로그램의 명령어들을 실행할 뿐이다.
메모리 계층
메모리 계층은 레지스터, 캐시, 메모리, 저장장치로 구성되어 있다.
- 레지스터: CPU 안에 있는 작은 메모리, 휘발성, 속도 가장 빠름, 기억 용량이 가장 적다.
- 캐시: L1, L2 캐시를 지칭한다. 휘발성, 속도 빠름, 기억 용량 적다. (참고로 L3 캐시도 있음)
- 주기억장치: RAM을 가리킨다. 휘발성, 속도 보통, 기억 용량이 보통이다.
- 보조기억장치: HDD, SSD를 일컬으며 비휘발성, 속도 낮음, 기억 용량이 많다.
RAM은 하드디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 이를 필요 시마다 CPU에 빠르게 전달하는 역할을 한다. 계층 위로 올라갈수록 가격은 비싸지는데 용량은 작아지고 속도는 빨라지는 특징이 있다. 또 이러한 계층이 있는 이유는 경제성과 캐시 때문이다.
캐시
`캐시(cache)` 는 데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄이기 위한 메모리를 말한다.
- 이를 통해 데이터를 접근하는 시간이 오래 걸리는 경우를 해결하고 무언가를 다시 계산하는 시간을 절약할 수 있다.
- 실제로 메모리와 CPU 사이의 속도 차이가 너무 크기 때문에 그 중간에 레지스터 계층을 둬서 속도 차이를 해결한다.
- 속도 차이를 해결하기 위해 계층과 계층 사이에 있는 계층을 캐싱 계층이라고 한다.
- 예를 들어, 캐시 메모리와 보조기억장치 사이에 있는 주기억장치를 보조기억장치의 캐싱 계층이라고 할 수 있다.
지역성의 권리
캐시 계층을 두는 것 말고 캐시를 직접 설정할 때는 자주 사용하는 데이터를 기반으로 설정해야 한다.
- 자주 사용하는 데이터에 대한 근거는 지역성이다.
- 지역성은 `시간 지역성(temporal locality)` 과 `공간 지역성(spatial locality)` 으로 나뉜다.
캐시히트와 캐시미스
캐시에서 원하는 데이터를 찾았다면 `캐시히트` 라고 하며, 해당 데이터가 캐시에 없다면 주메모리로 가서 데이터를 찾아오는 것을 `캐시미스` 라고 한다.
캐시매핑
캐시매핑이란 캐시가 히트되기 위해 매핑하는 방법을 CPU의 레지스터와 주 메모리(RAM)에 비하면 굉장히 작고 주 메모리에 비하면 굉장히 작고 주 메모리는 굉장히 크기 때문에 작은 레지스터가 캐시 계층으로써 역할을 잘 해주려면 이 매핑을 어떻게 하느냐가 중요하다.
웹 브라우저의 캐시
소프트웨어적인 대표적인 캐시로는 웹 브라우저의 작은 저장소 쿠키, 로컬 스토리지, 세션 스토리지가 있다. 이러한 것들은 보통 사용자의 커스텀한 정보나 인증 모듈 관련 사항들을 웹 브라우저에 저장해서 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나 중복 요청 방지를 위해 쓰인다.
데이터베이스의 캐싱 계층
참고로 데이터베이스 시스템을 구축할 때도 메인 데이터베이스 위에 레디스(redis) 데이터 베이스 계층을 ‘캐싱 계층’으로 둬서 성능을 향상시키기도 한다.
---
메모리 관리
운영체제의 대표적인 할 일 중 하나가 메모리 관리다.
가상 메모리
가상 메모리(Virtual Memory)는 메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것을 말한다.
- `가상 주소(logical address)` : 이때 가상적으로 주어진 주소
- `실제 주소(physical address)` : 실제 메모리상에 있는 주소
- 가상 주소는 메모리관리장치(MMU)에 의해 실제 주소로 변환되며, 이 덕분에 사용자는 실제 주소를 의식할 필요 없이 프로그램을 구축할 수 있게 된다.
- 가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 ‘페이지 테이블’로 관리된다. 이때 속도 향상을 위해 TLB를 쓴다.
스와핑
만약 가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴트가 발생한다. 이때 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고 하드디스크의 일부분을 마치 메모리처럼 불러와 쓰는 것을 스와핑(swapping)이라고 한다. 이를 통해 페이지 폴트가 일어나지 않은 것처럼 만든다.
페이지 폴트
페이지 폴트(page fault)란 프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 RAM에는 없는 데이터에 접근했을 경우에 발생한다. 페이지 폴트와 그로 인한 스와핑은 다음 과정으로 이루어진다.
스레싱
스레싱(thrashing)은 메모리의 페이지 폴트율이 높은 것을 의미하며, 이는 컴퓨터의 심각한 성능 저하를 초래한다.
- 스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하는 것이다.
- 페이지 폴트가 일어나면 CPU 이용률이 낮아진다.
- CPU 이용률이 낮아지게 되면 운영체제는 “CPU가 한가한가?”라고 생각하여 가용성을 더 높이기 위해 더 많은 프로세스를 메모리에 올리게 된다.
- 이와 같은 악순환이 반복되며 스레싱이 일어나게 된다.
- 해결하기 위한 방법으로는 메모리를 늘리거나, HDD를 사용한다면 HDD를 SSD로 바꾸는 방법이다.
- 이외에 운영체제에서 이를 해결할 수 있는 방법은 작업 세트와 PFF가 있다
작업 세트
작업 세트(working set)는 프로세스의 과거 사용 이력인 지역성(locality)을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것이다. 미리 메모리에 로드하면 탐색에 비용을 줄일 수 있고 스와핑 또한 줄일 수 있다.
PFF
PFF(Page Fault Fequency)는 페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만드는 방법이다. 프레임을 줄이는 것이다.
메모리 할당
메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데, 연속 할당과 불연속 할당으로 나뉜다.
연속 할당
- 연속 할당은 메모리에 “연속적으로” 공간을 할당하는 것을 말한다.
- 메모리를 미리 나누어 관리하는 고정 분할 방식과 매 시점 프로그램의 크기에 맞게 메모리를 분할하여 사용하는 가변 분할 방식이 있다.
불연속 할당
- 메모리를 연속적으로 할당하지 않는 불연속 할당은 현대 운영체제가 쓰는 방법으로 불연속 할당인 페이지 기법이 있다.
- 메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램마다 페이지 테이블을 두어 이를 통해 메모리에 프로그램을 할당하는 것이다.
- 페이징 기법 말고도 세그멘테이션, 페이지드 세그멘테이션이 있다.
페이지 교체 알고리즘
메모리는 한정되어 있기 때문에 스와핑이 많이 일어난다. 스와핑은 많이 일어나지 않도록 설계되어야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.
오프라인 알고리즘
오프라인 알고리즘(offline algorithm)은 먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘이며, 가장 좋은 방법이다. 그러나 미래에 사용되는 프로세스를 알 수 없다. 즉, 사용할 수 없는 알고리즘이지만 다른 알고리즘과의 성능 비교에 대한 기준을 제공한다.
FIFO
FIFO(First In First Out)는 가장 먼저 온 페이지를 교체 영역에 가장 먼저 좋는 방법을 의미한다.
LRU
LRU(Least Recentle Used)는 참조가 가장 오래된 페이지를 바꾼다. ‘오래된’ 것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야 하는 문제점이 있다.
LFU
LFU(Least Frequently Used)는 가장 참조 횟수가 적은 페이지를 교체한다. 즉, 많이 사용되지 않은 것을 교체하는 것이다.