카프카
data stream 에 있어서 aws 공부할때 배웠던 kinesis 처럼 대용량 데이터 서비스 stream 에 최적화된 message Q 스트림!
매번 스트림이란 무엇인가에 대해 고민을 하던 찰나 써보게 되어서 아주 반갑구만유..

근데 이렇게 깜깜이 정책이 아닐수가 없다
custom 한 데이터 전처리 및 ai 모델링, 안정화되고 명확한 파이프라인 구축이 핵심인 듯 하다.
처음 공부할때 shell 스크립트로 뚝딱 되길래 아 쉽겠네 했는데 안 쉽다
예시 )char a[4] = {0,1,2,3} 0xFFFFFFFFFh:000Fh, FFF0h:00FFh, FF00h:0FFFh, F000h:FFFFh
페이지 : 메모리나 디스크에서 관리되는 고정크기의 데이터 블록.
ex ) OS는 고정 크기의 메모리 블록 4KB 페이지를 사용해 메모리와 디스크간 데이터를 주고받는다고 함
페이지 cache: OS의 메모리 관리 시스템 일부.
물리적으로 메모리 일부 사용. 주로 해당 데이터의 페이지를 저장한다고 함 (IO 횟수를 줄이는 용) (file system과 관련됨)
registry: OS setting option 용 database.
일반 저장소 ( cpu, web 등..) 일반적인 데이터 임시 저장소 - memory 일부..
cpu 와 매우 밀접합 ( memory 보다 훨씬 빠르다고 함)
카프카 자체는 디스크에서 도는데
카프카의 오프셋은 Page Cache라는걸 사용해서 속도를 높임
카프카의 오프셋은 브로커내 토픽 파티션에 consumer 가 '읽을'위치
어디까지 읽었나? (사물함의 물건의 위치)

- 또한 저장(?)의 개념이 없기에 빠른처리가 가능함.

나는야 깔짝냠냠핑..