
서론 (Introduction)딥러닝과 컴퓨터 비전에서의 Inception 아키텍처 소개논문의 목표 및 문제의식Inception v2: 개선된 아키텍처2.1 기존 모델의 한계2.2 주요 개선 사항Batch NormalizationFactorized Convolution

Paper: Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition : 기존 CNN은 고정된 입력 이미지 사이즈\* 가 필요했음. (ex. 224x224)하지만 이는, input 이미지

MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 🔍1. Introduction 기존 CNN: 기술이 발전될 수록 더 깊고 더 복잡한 신경망을 만들어서 정확도(accu

🔍1. Introduction DNN DNN: 음성 인식이나 visual 객체 인식과 같은 어려운 문제에서도 훌륭한 성능을 보이는 매우 강력한 머신 러닝 모델. 특징: DNN은 적은 단계로 임의의 병렬 연산을 수행할 수 있을 만큼 유연하고 강력함. 다만, 고정된 크기

Paper: Neural Machine Translation by Jointly Learning to Align and TranslateNMT(신경망 기계 번역, Neural Machine Translation)는 당시 최근 제안된 새로운 번역 방법임.당시 기존 번역

Paper: Attention Is All You NeedRNN(순환 신경망, Recurrent Neural Networks), LSTM(Long Short-Term Memory), GRU(게이트 순환 신경망, Gated Recurrent Neural Network)은

Paper: Deep contextualized word representationsPre-trained word representations은 많은 neural language 이해 모델에서 중요한 부분임.단, 이는 high quality 표현을 학습하는 데에는 좀

Paper: Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks최근의 객체 탐지 분야의 발전은 Region Proposal Methods와 Region-based convoluti

Paper: U-Net: Convolutional Networks for Biomedical Image Segmentation 🔍1. Introduction Deep convolution networks는 최근 많은 visual recognition task에서 높

Paper:You Only Look Once: Unified, Real-Time Object Detection

Paper: Improving Language Understanding by Generative Pre-Training

Paper: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding🔍1. Introduction

Paper: RoBERTa: ARobustly Optimized BERT Pretraining Approach 🔍1. Introduction ELMo, GPT, BERT, XLM, XLNet과 같은 기존 Self-training methods는 성능 향상을 크게 이

Paper: Focal Loss for Dense Object Detection현재 최고의 객체 탐지(Object Detection) 모델들은 two-stage 기반의 방식으로 구성됨.(ex. R-CNN)stage 1: 객체의 후보 영역을 생성함stage 2: 후보 영

Paper: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

Paper: XLNet: Generalized Autoregressive Pretraining for Language Understanding

Paper: Mask R-CNN

Paper: BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension

Paper: Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization 🔍1. Introduction CNN 기반 딥러닝 모델 : 이미지 분류, 객체 탐지, 세그멘테이션, 이미지

Paper: An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

Paper: End-to-End Object Detection with Transformers

Paper: [Emerging Properties in Self-Supervised Vision Transformers ](https://arxiv.org/abs/2104.14294)

Paper: High-Resolution Image Synthesis with Latent Diffusion Models

Paper: 자율주행 시스템의 SOTIF 확보를 위한 STPA 안전 분석 및 V & V 방법론(한승재, 변진규, 안수민, 유진우. (2025). 자율주행 시스템의 SOTIF 확보를 위한 STPA 안전 분석 및 V & V 방법론. 한국자동차공학회논문집, 33(1), 61