
[딥러닝 기본지식] Self Attention과 Transformer (1)
·
AI Research/Deep Learning
이번 포스팅에서는 자연어처리 분야의 눈부신 성능 향상을 가져온 Self Attention과 Transformer에 대해 알아보겠습니다 :) 참고한 논문은 아래와 같습니다. [Paper] https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf [Github] https://github.com/huggingface/transformers GitHub - huggingface/transformers: 🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. 🤗 Transformers: Stat..