[딥러닝 기본지식] Self Attention과 Transformer (1)
·
AI Research/Deep Learning
이번 포스팅에서는 자연어처리 분야의 눈부신 성능 향상을 가져온 Self Attention과 Transformer에 대해 알아보겠습니다 :) 참고한 논문은 아래와 같습니다. [Paper] https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf [Github] https://github.com/huggingface/transformers GitHub - huggingface/transformers: 🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. 🤗 Transformers: Stat..
[딥러닝 기본지식] Auto Regressive Models
·
AI Research/Deep Learning
이번 포스팅에서는 Text-to-image에서 많이 사용되는 Auto Regressive Model에 대해 작성하겠습니다 :) 1. Auto Regressive(AR) Model 이란? 자기 자신을 입력 데이터로 하여 스스로를 예측하는 모델입니다. 현재 time step까지 생성한 결과를 이용해 다음 시점의 output을 예측합니다. 그렇기 때문에 현재 time step의 데이터는 이전 time step의 모든 데이터에 대해 의존성을 갖게 됩니다. 아래 그림은 개념도와 likelihood식입니다. Auto Regressive Generative Model은 데이터를 생성해내는 과정에서 이전 time step까지의 모든 정보에 기반을 두고 생성하는 모델입니다. low resolution 이미지를 high ..
[딥러닝 기본지식] Diffusion Model
·
AI Research/Deep Learning
이번 포스팅에서는 Generative Model 중에서 최근 활발하게 연구되고 있는 Diffusion Model에 대해 작성하겠습니다. 먼저, Generative Model이 무엇인지에 대해서 부터 알아보겠습니다. 1. Generative Model 이란? Generative Model 은 입력으로 주어지는 데이터 x로 부터 샘플링된 분포(distribution)를 평가하는 모델을 말합니다. 가장 유명한 것으로 GAN이 있죠! 딥러닝 모델이 분포를 평가한다는 것은 정확히 무슨 의미일까요? 분류 모델의 경우에는 모델의 output이 분류해야 할 class들 중 하나입니다. 하지만 생성 모델에서는 output이 분포를 결정짓는 값입니다. 즉, 주어진 데이터가 나올 확률을 의미합니다. 주어진 데이터의 가능도(..
[딥러닝 기본지식] 다양한 Convolution 기법_with pytorch (2)
·
AI Research/Deep Learning
이번 게시물에서는 이전 게시물에 이어 다양한 Convolution 기법들에 대해 작성합니다! 5. Depthwise Separable Convolution 앞서 설명했던 depthwise convolution은 하나의 kernel이 하나의 채널에만 연산을 하고 각각의 연산 결과를 하나로 모으는 방식이었습니다. 이와 달리 Depthwise Separable Convolution은 각 채널의 출력 값들이 하나로 합쳐지는 방식입니다. depthwise convolution은 채널들끼리 정보 교류가 없었지만 Depthwise Separable Convolution은 spatial feature와 channel-wise feature 를 모두 고려하기 때문에 채널간 정보교류를 하며 네트워크를 경량시킬 수 있습니다..