0422
빨라지는 HBM4E 경쟁…삼성 '샘플 속도전' vs SK '3나노 승부수'
로직 다이?
HBM 내부에서 단순히 데이터를 저장하는 DRAM 셀들과 달리, 데이터 흐름을 제어하고 처리하는 ‘두뇌 역할’의 칩이다.
HBM은 여러 개의 메모리 칩을 수직으로 쌓은 구조인데, 이들을 그냥 쌓기만 하면 제대로 동작하지 않기 때문에, 가운데에 로직 다이가 들어가서 각 메모리 층을 연결하고 전체 동작을 조율한다.
이 로직 다이는 GPU와 HBM 사이에서 데이터 입출력을 관리하고, 어떤 데이터를 언제 어느 층에서 읽고 쓸지 스케줄링하며, 신호를 정리하고 오류를 제어하는 역할까지 수행한다.
로직다이가 스스로 어떻게 조율해? 사고 능력이 있나?
로직 다이는 사람이 실시간으로 조절하는 게 아니라, 이미 설계된 회로가 하드웨어 수준에서 자동으로 동작하는 구조다. 즉, 소프트웨어처럼 “판단해서 생각한다”기보다는, 정해진 규칙대로 초고속으로 처리하는 전용 컨트롤러라고 보면 된다.
자동차 반도체도 '오픈소스' 선언…인피니언, MCU에 RISC-V 적용
MCU 안에는 실제로 프로그램을 실행하는 기준이 되는 명령어 구조(ISA, Instruction Set Architecture)가 있는데, 이게 바로 Arm이나 RISC-V 같은 것이다.
쉽게 말하면, “이 칩이 어떤 방식으로 계산하고 명령을 이해하느냐를 정해주는 언어 규칙”이다.
기존에는 대부분 Arm이라는 회사가 만든 구조를 사용했는데, 이건 돈을 내고 써야 하고 구조를 마음대로 바꾸기 어렵다. 반면 RISC-V는 명령어 구조가 공개된 오픈소스 방식이라서, 기업이 원하는 기능만 골라서 칩을 설계할 수 있다. 그래서 “반도체의 리눅스”라고 불린다. 리눅스가 무료로 수정 가능한 운영체제인 것처럼, RISC-V도 자유롭게 커스터마이징 가능한 CPU 설계 기준이라는 의미다.
이게 왜 자동차에서 중요하냐면, 요즘 자동차는 단순 기계가 아니라 SDV(Software Defined Vehicle, 소프트웨어 정의 차량)로 바뀌고 있기 때문이다.
예전에는 차 기능이 하드웨어로 고정되어 있었지만, 이제는 스마트폰처럼 소프트웨어 업데이트(OTA)로 기능이 계속 추가된다.
그러려면 칩도 유연하게 바뀔 수 있어야 하는데, 폐쇄적인 구조보다 RISC-V 같은 개방형 구조가 훨씬 유리하다. 그래서 Infineon Technologies 같은 회사가 RISC-V를 도입하는 것이다.
또 기사에 나온 “시프트 레프트”는 개발 방식을 의미하는데, 쉽게 말하면 개발을 앞당기는 전략이다.
원래는 칩을 다 만든 다음에 소프트웨어를 개발했는데, 이제는 가상의 칩(시뮬레이션)을 먼저 만들어서 소프트웨어를 미리 개발한다. 이렇게 하면 전체 개발 기간이 줄어든다.
정리하면, 이 뉴스의 본질은 자동차가 점점 ‘소프트웨어 중심 기기’로 바뀌면서, 그 안에 들어가는 반도체도 더 유연하고 수정 가능한 구조(RISC-V)로 변화하고 있다는 것이다.
"한국 공장 인근서 합숙"…엔비디아도 K부품 구하려고 줄섰다
AI 서버에서는 GPU가 아무리 좋아도, 그 주변에서 데이터를 전달하고 전력을 안정적으로 공급하는 부품이 따라주지 않으면 성능이 제대로 나오지 않는다.
FC-BGA?
GPU와 메모리(HBM)를 연결하는 초고속 기판으로, 데이터가 지나가는 “도로” 역할을 하는데 이 도로의 품질이 낮으면 신호가 깨지거나 속도가 제한된다.
MLCC?
Multi-Layer Ceramic Capacitor(적층 세라믹 커패시터)의 약자로전기를 잠깐 저장했다가 필요할 때 바로 공급해주는 초소형 배터리 같은 부품”이다.
하지만 실제 역할은 단순 저장보다 전압을 안정적으로 유지하는 것에 있다. 전자회로에서는 전기가 항상 일정하게 흐르는 게 아니라 순간적으로 확 올라갔다가 떨어지는데, MLCC는 이런 흔들림을 잡아줘서 칩이 안정적으로 동작하게 만든다.
결국 이 두 부품이 부족하거나 품질이 낮으면 GPU 성능을 100% 못 쓰게 되기 때문에, 지금은 부품 자체가 성능의 한계를 결정하는 구조가 되었고, 그래서 고난도 기술을 가진 기업만 생산할 수 있는 “진입장벽 높은 시장”이 된 것이다.
[5] ‘하청→주도권’ 산업 구조 변화
과거 완제품 중심 구조에서 벗어나 부품사가 성능 한계를 결정하는 ‘슈퍼을’ 중심 생태계로 전환
오..
KT클라우드, 공공 AI 문턱 낮춘다…'AI 파운드리' 생태계 확장
엔드투엔드(End-to-End)는 말 그대로 “처음부터 끝까지 한 번에”라는 의미다. AI에서 보면, 데이터 준비 → 모델 학습 → 배포 → 서비스 운영.
모건스탠리 "컴퓨팅 병목이 CPU와 메모리로 이동"
왜 CPU의 사용량이 급증? -> AI agent(자율 AI, AI를 활용한 다양한 툴들~)의 영향.
그렇다면 왜 자율 AI가 CPU의 병목을?
처음엔 데이터센터 수가 늘어나며 CPU의 수요가 증가한다고 생각. but..
자율 AI는 단순히 한 번 계산하고 끝나는 게 아니라, 스스로 판단하고 여러 단계를 반복하면서 계속 작업을 수행하는 구조다.
이 과정에서 GPU는 주로 모델 연산을 담당하지만, 실제로는 CPU가 해야 할 일이 많다.
예를 들어 데이터를 불러오고, 작업 순서를 관리하고, 여러 요청을 나누고 합치는 역할은 CPU가 맡는다. 자율 AI에서는 이런 작업이 계속 반복되기 때문에 CPU가 처리해야 할 양이 급격히 증가한다.
그런데 GPU는 점점 더 빨라지고 있기 때문에, GPU가 계산을 끝내고 기다리는 동안 CPU가 준비를 못 하면 전체 속도가 CPU에 의해 제한된다.
그래서 AI가 단순 생성에서 자율적인 행동으로 발전할수록, 연산 자체보다 “데이터 준비와 제어”를 담당하는 CPU가 병목이 되는 구조로 바뀌는 것이다.