1990년 중반까지는 모두 다 static sites였다.
서버에 이미 잘 만들어진 html 문서들이 있고 사용자가 브라우저에서 헬로 닷컴과 같은 주소에 접속하면 서버에 이미 배포되어져있는 HTML 문서를 받아와서 보여주는 형식이다.
한 가지 문제점은 페이지내에서 다른 링크를 클릭하면 다시 서버에서 해당 페이지의 HTML을 받아와서 페이지 전체가 업데이트 되어야 한다.
1996년 문서 내에서 또 다른 문서를 담을 수 있는 iframe 태그가 도입이 되었고 이제는 페이지 내부에서 부분적으로 문서를 받아와서 업데이트 할 수가 있게 된다.
1998년 우리가 많이 쓰고 있는 fetch API의 원조 XmlHttpRequest API가 개발이 되어서 이제는 HTML 문서 전체가 아니라 JSON과 같은 포맷으로 서버에서 가볍게 필요한 데이터만 받아올 수 있게 된다. 그 데이터를 자바스크립트를 이용해서 동적으로 HTML 요소를 생성해서 페이지에 업데이트 하는 방식이다.
2005년 이런 방식이 공식적으로 AJAX라는 이름을 가지게 되고 구글에서도 AJAX를 이용해서 Gmail Google Maps와 같은 우리가 많이 쓰고 있는 웹 어플리케이션은 만들기 시작한다. 이것이 현재 널리 쓰이고 있는 SPA 싱글페이지 어플리케이션이다. 사용자가 한 페이지 내에서 머무르면서 필요한 데이터를 서버에서 받아와서 부분적으로만 업데이트 하게 된다. 이런 방식으로 하나의 어플리케이션을 사용하듯 웹사이트에서도 사용성이 조금씩 좋아지게 된다.
이런 SPA의 트렌드 그리고 사용자들의 PC 성능이 점차 좋아져서 많은 것들이 무리없이 처리될 수 있게 됐고 자바스크립트도 표준화가 잘 되어짐에 따라서 강력한 커뮤니티를 바탕으로 앵귤러,리액트,뷰와 같은 프레임워크가 나와서 CSR 클라이언트 사이드 렌더링 시대로 접어들게 된다.
클라이언트 사이드 렌더링이란 간단히 말하면 클라이언트 측에서 다 해먹는 걸 말한다. 서버에서 인덱스라는 HTML 파일을 클라이언트에 보내주면 CSR에서 사용되는 가장 추상적이고 심플한 HTML 예제를 보면 body 안에는 아이디 루트만 달랑 하나 들어있고 어플리케이션에서 필요한 자바스크립트의 링크만 들어져있다. 그래서 HTML은 텅텅 비어져있기 때문에 처음에 접속하면 빈 화면만 보이고 다시 링크된 어플리케이션 자바스크립트를 서버로부터 다운로드 받게 되는데 여기 자바스크립트에는 우리 어플리케이션에서 필요한 로직 뿐만 아니라 어플리케이션을 구동하는 프레임워크와 라이브러리의 소스코드들도 다 포함이 되어있다. 그렇기 때문에 굉장히 사이즈가 커서 다운로드 받는 데도 시간이 소요될 수 있다. 추가로 필요한 데이터가 있다면 서버에 요청을 해서 데이터를 받아온 다음에 이것들을 기반으로 해서 동적으로 HTML을 생성해 사용자에게 최종적인 어플리케이션을 보여주게 된다.
이런 클라이언트 사이드 렌더링의 큰 문제점으로는 사용자가 첫화면을 보기까지 오래걸릴 수 있다는 점과 두 번째로는 썩 좋지 않는 SEO
를 꼽을 수 있다.
SEO : Search Engine Optimiztion의 약자
SEO는 구글, 네이버와 같은 검색엔진들은 서버에 등록된 웹사이트를 하나하나씩 돌아다니면서 웹사이트의 HTML를 분석해서 우리가 검색할 때 웹사이트를 빠르게 검색할 수 있게 도와준다.
하지만 CSR에서 사용되는 HTML의바디는 대부분 텅텅 비어져있기 때문에 검색엔진들이 CSR로 작성된 웹페이지를 분석하는데 많은 어려움을 겪고 있다. 구글에서는 조금 개선이 되었지만 여전히 SEO가 좋지 않다.
이런 CSR의 과도한 문제점때문에 우리가 1990년 중반쯤에 사용했던 Static Sites에 영감을 받은 SSR 서버사이드 렌더링이 도입되게 된다. 이제 클라이언트에서 모든 것을 처리하는 방식과는 다르게 웹사이트에 접속하면 이제 서버에서 필요한 데이터를 모두 가져와서 HTML 파일을 만들게 되고 이렇게 잘 만들어진 HTML파일을 동적으로 조금 제어할 수 있는 소스코드와 함께 클라이언트에 보내주게 된다. 그러면 클라이언트 측에서는 잘 만들어진 HTML문서를 받아와서 사용자에게 보여줄 수 있게 된다. 이런 SSR을 이용하게 되면 CSR을 사용했을 때보다 로딩이 빨라진다는 장점이 있고 또 모든 컨텐츠가 HTML에 담겨져있기 때문에 조금 더 효율적인 SEO를 할 수가 있다.
하지만 SSR에도 큰 문제점이 존재하는데 첫 번째로는 Static Sites에서 발생했던 깜빡임 이슈가 존재한다. 사용자가 클릭을 하게 되면 전체적인 웹사이트를 다시 서버에서 받아오는 것이랑 동일하기 때문에 썩 좋지 않는 UX를 겪을 수가 있다. 두 번째로는 서버에 과부하가 걸리기 쉽다. 특히 사용자가 많은 제품일 수록 사용자가 클릭해 서버에 요청하여 서버에서 필요한 데이터를 가지고와서 HTML을 만들어야 하므로 서버에 과부하가 걸리기 쉽다. 세 번째로 가장 치명적인 단점으로는 사용자가 빠르게 웹사이트를 확인할 수는 있지만 동적으로 데이터를 처리하는 자바스크립트를 아직 다운로드 받지 못해 사용자가 여기저기 클릭했을 때 반응이 없는 경우가 발생할 수 있다.
TTV : Time To view
TTI : Time To Interact
CSR과 SSR을 시간이 흘러가는 순서대로 분석해본다면 CSR은 사이트에 접속하게 되면 서버에게서 인덱스 파일을 받아온다. 이 인덱스 파일은 텅텅 비어져있기 때문에 사용자에게는 아무것도 보여주지 않는다. 이 HTML파일에 링크되어져 있는 이 웹사이트에서 필요한 모든 로직이 담겨있는 자바스크립트를 요청하게 된다. 그리고 최종적으로 동적으로 HTML을 생성할 수 있는 우리의 웹어플리케이션 로직이 담긴 자바스크립트 파일을 받아오게 된다. 그리고 이 순간부터 사용자에게 웹사이트가 보여지게 되고 또 사용자가 클릭이 가능하게 된다. 즉, CSR은 (TTV) 사용자가 웹사이트를 볼 수 있음과 동시에 (TTI) 클릭을 하거나 인터랙션이 가능하게 된다.
반대로 서버사이드렌더링(SSR)은 사이트에 접속을 하게 되면 서버에서 이미 잘 만들어진 인덱스 파일을 받아오게 되고 사용자가 웹사이트를 볼 수가 있다. 하지만 아직 동적으로 제어할 수 있는 자바스크립트 파일은 받아오지 않았으므로 사용자가 클릭을 해도 아무런 것도 처리할 수가 없게 된다. 그래서 최종적으로 자바스크립트 파일을 서버에서 받아와야지만 그때부터 사용자의 클릭을 처리할 수 있는 인터랙션이 가능해진다. 그래서 서버사이드 렌더링은 사용자가 사이트를 볼 수 있는 시간(TTV)과 실제로 인터랙션할 수 있는 시간(TTI)과의 공백기간이 꽤 긴 편이다.
그래서 웹사이트의 성능을 분석할 때 TTV와 TTI도 중요한 매트릭으로 사용할 수 있다. CSR을 정말 많이 사용하는 사람이라면 우리가 최종적으로 번들링해서 사용자에게 보내주는 이 자바스크립트 파일을 어떻게 하면 효율적으로 분할해서 첫 번째로 사용자가 보기 위해서 필요한 정말 필요한 필수적인 아이만 보낼 수 있을지 고민해보면 좋을 것이다.
SSR같은 경우는 사용자가 보고, 인터랙션 하는 이 시간의 단차를 줄이기 위해서 어떤 노력을 할 수 있을지 우리가 좀 더 매끄러운 UI와 UX를 제공할 수 있을지 고민해보면 좋을 것이다.
그리고 요즘에는 꼭 CSR 또는 SSR만을 고집해서 사용하기 보다는 SSG도 있다.
SSG: Static Site Generation약자
리액트 같은 경우는 클라이언트 사이드 렌더링에 특화된 라이브러리이지만 개츠비라는 라이브러리와 함께 사용하면 리액트로 만든 웹어플리케이션을 정적으로 웹페이지를 미리 생성해두어서 서버에 배포해 놓을 수가 있다. 그리고 이렇게 만들어진 웹사이트들은 모두 다 정적인가? 하면 "아니다"라고 할 수 있다. 우리가 추가적으로 데이터를 서버에서 받아오거나 또는 동적으로 처리해야되는 로직이 있다면 자바스크립트 파일을 함께 가지고 있을 수 있기 때문에 동적인 요소도 충분히 추가 할 수 있다.
그리고 개츠비 다음으로 리액트에서 많이 사용되는 것이 Next.js이다. Next.js는 강력한 서버사이드 렌더링을 지원하는 라이브러리였지만 요즘에는 SSG도 지원을 하고 CSR과 SSR을 잘 섞어서 조금 더 강력하고 유연하게 우리의 목적에 맞게 사용할 수 있도록 지원해주고있다.
위의 글은 드림코딩에서 소개해주는 SPA,CSR, SSR,TTV,TTI,SSG를 따라친 글이며 치면서 스스로 곱씹고 이해해보았다.