
본 서버에 요청을 하였고 중간에 프록시 서버를 거쳐간다고 할 때 프록시 서버에 원하는 자원이
캐싱되어 있다면
원 서버로 가지 않고 프록시 서버가 대신 응답을 해준다.
캐싱되어 있지 않다면
프록시 서버가 원 서버에 요청하고
원 서버로부터 응답을 받고 캐싱을 한 다음
응답으로 받은 것을 클라이언트에게 응답으로 준다.
이후 같은 것을 요청하면 캐싱이되어 빠르게 응답을 받을 수 있다.

두 네트워크 사이의 접근 링크에 병목이 생긴 경우 로컬 웹 캐시를 만들어 접근 링크를 지나는 트래픽 양을 줄여 지연 시간을 줄일 수 있다. 또한 직접 링크를 설치하는 것보다 훨씬 싸다.
랜 이용률
= 초당 랜에 들어오는 비트양 / 랜의 용량
= 초당 요청 수 한 객체의 크기 / 랜의 용량
= (15개 / 초) 100000 비트 * (1000000000 비트 / 초)
= 0.0015
= 0.15 %
접근 링크 이용률
= 초당 접근 링크에 들어오는 비트양 / 접근 링크 용량
= 1.5 Mbps / 1.54Mbps
= 0.97
= 97%
총 지연 시간
= 인터넷을 타고 서버에서 관문 라우터까지 왔다 갔다 하는 시간 + 접근 링크를 타고 건너오는 시간 + 랜을 타고 클라이언트로 오는 시간
= 2초 + 몇분 + 매우 짧음
접근 링크에서 병목이 일어나니 라우터에서 큐잉이 일어나고 이용률이 거의 97퍼이니 큐일 시간도 크다 따라서 접근 링크를 타고 건너오는데 오랜 시간이 걸린다.
랜은 널널하니 거의 안 걸린다.
트래픽이 줄었으니 큐잉 시간도 줄어든다.
관문 라우터에서 서버까지 왔다갔다 하고 큐잉되는 시간을 rtt + 큐잉시간 + 랜 타고 클라이언트에게 오는 시간하여 약 2.01초라 하고
캐싱되어 로컬 캐시에게 응답을 받는데 걸리는 시간은 매우 작은 값이라고 하면 무시 가능
따라서 평균 딜레이는 아래와 같다
= 캐싱 안될 확률 * 캐싱 안 되었을 때 걸리는 시간 + 캐싱될 확률 * 캐싱 되었을 때 걸리는 시간
= 0.6 2.01 + 0.4 아주 작은 값
= 1.2 초
확실히 지연시간이 감소하는 것을 확인할 수 있다.

서버가 받았는데
요청한 자원이 헤더에 적힌 시간 이후에 바뀌었으면
바뀌지 않았다면