0329
비상 걸린 헬륨 공급…8주 뒤엔 반도체 못 만든다
왜 반도체 공정에 헬륨이 필수적임?
첫 번째로, 헬륨은 열전도율이 매우 높은 기체다. 반도체 공정에서는 웨이퍼를 가열하거나 식히는 과정이 반복되는데, 온도가 조금만 틀어져도 공정 결과(막 두께, 식각 깊이 등)가 크게 달라진다. 이때 헬륨을 웨이퍼 뒷면(backside)에 넣어주면 열을 빠르게 전달해줘서 온도를 균일하게 유지할 수 있다. 특히 식각(etching)이나 증착(deposition) 공정에서 “온도 균일성 = 품질”이라서 헬륨이 거의 필수다.
두 번째로, 헬륨은 완전히 비활성(inert) 기체다. 즉, 다른 물질과 거의 반응하지 않는다. 반도체 공정에서는 아주 미세한 화학 반응을 정밀하게 제어해야 하는데, 공정에 쓰는 가스가 반응해버리면 결과가 망가진다. 헬륨은 이런 부작용이 없어서 플라즈마 공정이나 식각 공정에서 안정적인 환경을 유지하는 보조 가스로 많이 쓰인다.
세 번째로, 헬륨은 원자 크기가 작아서 누설 감지(leak detection)에 최적이다. 반도체 장비는 진공 상태를 유지해야 하는데, 미세한 틈으로 가스가 새면 공정이 망가진다. 헬륨은 아주 작은 틈도 잘 통과하기 때문에, 일부러 헬륨을 흘려보내고 센서로 잡아서 장비의 미세 누설을 정확하게 검사한다. 이건 장비 유지보수에서 필수다.
마지막으로, 헬륨은 플라즈마 안정화에도 도움을 준다. 플라즈마 공정에서는 전자가 잘 움직여야 안정적인 방전이 유지되는데, 헬륨은 이온화 특성이 좋아서 플라즈마를 부드럽게 유지해준다. 그래서 다른 반응성 가스(예: CF₄, Cl₂ 등)와 섞어서 공정 안정성을 높이는 역할을 한다.
플라즈마 공정은 뭔데?
중성인 기체에 전기 넣어서 이온 + 전자 상태로 쪼개놓은 상태. 이걸 방전상태라고 하는듯?
얘네가 엄청 빠르게 움직이면서 에너지를 가짐
엄청 빠르게 공정 처리할 수 있다고 보면 됨.
식각, 증착?
플라즈마 공정을 활용해서
화학적으로 때려서 깎을 수도 있고 (식각)
표면 반응을 빠르게 만들 수도 있고 (증착)
번외로 노광은 웨이퍼 위에 pr을 씌우고 마스크 올려서 빛 쏴서 패턴 남기는 것.
Positive PR: 빛 받은 부분이 녹음.
Negative PR: 빛 안 받은 부분이 녹음.
특수 분야 반도체 국산화 준비 완료…4인치 웨이퍼 수율 95% 달성
큰 웨이퍼에서도 잘 만든다. 4인치면 큰 웨이퍼인듯?
실리콘에서보다 GAas(비소화칼륨, 화합물 반도체)에서 전자 이동속도가 더 빠름 + 고주파 + 고온 + 극한 환경(국방, 우주 등 특수상황)에서도 안정적
PDK, MPW
PDK?
설계할 때 필요한 “공정 설명서 + 라이브러리”
MPW?
여러 회사가 한 웨이퍼 나눠서 쓰는 것, 비용 줄임
1조 실탄 장전한 SKC, 유리기판 사업 가속화…재무 건전성 강화도
유리기판?
기판 = 칩 밑에서 연결해주는 “판”
지금까지는:
플라스틱(유기기판) 많이 씀
근데 문제:
AI 칩 → 데이터 많음
배선 엄청 촘촘해야 함
그래서 유리기판
장점:
열 변형 적음
더 미세한 배선 가능
신호 손실 적음
임베딩, 비임베딩
임베딩 : 칩을 기판 안에 넣음
비임베딩 : 칩을 위에 올림, 기존 방식
→ 기존 방식
ISC
ISC : 테스트 소켓 회사, 반도체 검사할 때 칩 꽂는 장비
구글 터보퀀트 HBM 영향 제한적...AI 문턱 낮춰 생태계 키울 기회
AI에서 메모리가 필요한 이유는, 단순히 데이터를 저장하는 수준이 아니라 모델 자체와 계산 과정, 그리고 문맥까지 동시에 유지해야 하기 때문이다. 먼저 모델 파라미터는 AI의 ‘뇌’ 역할을 하는데, 수십억 개 이상의 숫자(가중치)로 이루어져 있어서 이 전체를 메모리에 올려야만 입력을 처리할 수 있다. 즉, 모델을 실행한다는 것은 이 거대한 수치 구조를 계속 불러와 계산에 사용하는 과정이다.
여기에 더해 AI는 한 번의 계산으로 끝나는 것이 아니라 여러 층(layer)을 거치며 연산을 반복하는데, 이때마다 중간 결과들이 계속 생성된다. 이러한 값들을 연산 중간값(activation)이라고 하며, 다음 계산 단계에서 반드시 필요하기 때문에 메모리에 저장해둬야 한다. 즉, 메모리는 단순 저장소가 아니라 계산이 진행되는 동안 계속 사용되는 작업 공간이라고 볼 수 있다.
마지막으로, 특히 대형 언어 모델에서는 이전에 입력되거나 생성된 내용들을 계속 참고해야 하기 때문에 KV 캐시라는 형태로 문맥 정보를 저장한다. 문장이 길어질수록 이 정보가 계속 쌓이게 되고, 그만큼 메모리 사용량도 급격히 증가한다. 이 때문에 긴 문장을 처리하거나 대화를 이어갈수록 메모리 부담이 커지는 구조가 된다.
결국 AI에서 메모리는파라미터, layer에서의 결과들, 그리고 KV cache을 동시에 담고 처리하는 핵심 공간이며, 이 세 가지가 모두 필요하기 때문에 고속·대용량 메모리(HBM 등)가 필수적으로 요구되는 것이다.
구글 터보퀀트는 이 중 하나인 기억(KV cache)를 해결한 것. 장기적으로 AI 수요가 더 높아지면 오히려 메모리 수요는 더 늘어날 것.
삼성전자, 2028년 '꿈의 반도체' 양산한다
실리콘 포토닉스?
실리콘 포토닉스는 기존 반도체가 전기 신호로 데이터를 처리하고 전달하던 방식에서 벗어나, 빛(광신호)을 이용해 데이터를 전송하는 기술을 실리콘 칩 위에 구현한 것이다.
기존에는 GPU나 메모리(HBM), 서버 간 데이터를 주고받을 때 전선을 통해 전기 신호로 전달했는데, 이 방식은 데이터가 많아질수록 속도가 느려지고 발열이 커지며 전력 소모도 증가하는 한계가 있다. 특히 AI처럼 대량의 데이터를 빠르게 이동시켜야 하는 환경에서는 “연산보다 데이터 이동이 더 느린 병목”이 되는 문제가 발생한다.
실리콘 포토닉스는 이 문제를 해결하기 위해 데이터를 전기가 아니라 빛으로 보내도록 만든다. 빛은 전기보다 훨씬 빠르게 이동할 수 있고, 신호 간 간섭이 적으며, 같은 공간에서 더 많은 데이터를 동시에 전달할 수 있기 때문에 대역폭이 크게 증가한다. 또한 전기 신호보다 발열이 적어서 에너지 효율 측면에서도 유리하다. 즉, 단순히 속도만 빠른 것이 아니라 속도·전력·열 문제를 동시에 개선하는 기술이다.
실리콘 포토닉스는 이 문제를 해결하기 위해 데이터를 전기가 아니라 빛으로 보내도록 만든다. 빛은 전기보다 훨씬 빠르게 이동할 수 있고, 신호 간 간섭이 적으며, 같은 공간에서 더 많은 데이터를 동시에 전달할 수 있기 때문에 대역폭이 크게 증가한다. 또한 전기 신호보다 발열이 적어서 에너지 효율 측면에서도 유리하다. 즉, 단순히 속도만 빠른 것이 아니라 속도·전력·열 문제를 동시에 개선하는 기술이다.