AI기반 인지 하드웨어 플랫폼 기술

SPARK·2023년 9월 7일
0

hmobilityclass

목록 보기
22/67

자율주행 컴퓨터
: 카메라, 라이다, 레이더 등의 센서 데이터를 취득하여 인지기능을 수행하기 위한 하드웨어

하드웨어 사양 : 실시간 계산 가능, 낮은 전력 소모
-> 자율주행차와 엣지에서 AI 수행을 위한 하드웨어 칩셋 필요

칩셋 : 딥러닝 계산에 특화된 가속기가 필요함, 센서 데이터 입출력 인터페이스, 전처리와 후처리를 위한 CPU와 GPU

서버 : 딥러닝 학습을 위한 가속기, GPU 서버 하드웨어


딥러닝 가속기 기술

딥러닝에 사용되는 연산(행렬곱, 누적 연산 등)을 가속화하여 빠른 시간 내 적은 전력으로 계산
많은 비트 연산 필요없음
성능 저하 없이 8비트 이하의 연산 수행 가능

딥러닝 가속기 구성

  • GEMM (General Matrix and Multiply Engine) : 딥러닝에서 가장 계산이 많은 행렬 곱 수행
  • SRAM : 딥뉴럴 네트워크 내 가중치, 활성화값 저장
  • DRAM : 딥뉴럴 네트워크 내 결과물, 입력 데이터 저장
  • Interconnect & Fabric : 유닛 간의 데이터 교환을 위한 연결 로직 필요
  • Controller : 제어나 통신을 위한 명령어 수행

아키텍쳐 경량화

이론 또는 시뮬레이션을 통해 딥러닝 모델 도출 -> 하드웨어 스펙에 맞게 압축

  • 노드 프루닝
  • 채널 프루닝
  • Depth separable convolution : 모바일넷에 주로 사용

딥러닝 모델 압축 -> 신경망 가중치와 활성화값을 양자화 -> 계산량 줄임


컴파일러
Pytorch / Tensorflow와 같은 라이브러리로 구현된 코드를 고수준의 구현코드인 명령어셋으로 변환시킴


테슬라 FSD 컴퓨터

  • NNA (Neural Network Accelerator) : 딥러닝 가속기
  • CPU : 오토파일럿 알고리즘 등 제어 기능 수행
  • ISP (Image Signal Processor), 비디오 인코더 : 해상도가 높고 데이터의 양이 많은 카메라 영상 입력을 처리
  • GPU : NNA 가속기로 해결하지 못하는 부분의 후처리 수행
  • 메모리 : SRAM (중간결과 저장), DRAM (최종결과저장)

신뢰성을 위해 두 개의 chip을 서로 다른 파워서플라이를 사용해 정착 -> 동작 오류 대체 가능

0개의 댓글