본문 바로가기
728x90
반응형

AI Research47

[딥러닝 기본지식] 평가 지표(Metrics) 이번 포스팅에서는 분류와 회귀에 사용되는 평가 지표들에 대해 설명하겠습니다! ​ ▶Classification Metrics Classification Metrics에서 가장 중요한 개념은 Confusion Matrix입니다. 이는 모델의 예측과 실제 결과를 비교하여 나타낸 표를 말합니다. 가로행은 모델의 예측된 결과를, 세로열은 실제 결과를 의미합니다. True Positive(TP) : 실제 True인 정답을 True라고 예측 (정답) False Positive(FP) : 실제 False인 정답을 True라고 예측 (오답) False Negative(FN) : 실제 True인 정답을 False라고 예측 (오답) True Negative(TN) : 실제 False인 정답을 False라고 예측 (정답) P.. 2023. 3. 4.
[딥러닝 기본지식] 오차 역전파(backpropagation)의 이해 - 계산그래프와 연쇄법칙(chain rule) 이전 게시물들에서 신경망의 가중치 매개변수에 대한 손실 함수의 기울기는 수치 미분을 사용해 구한다고 설명하였습니다. 수치 미분은 단순하고 구현하기 쉽지만 계산 시간이 오래 걸린다는 단점이 있습니다. 이번에는 가중치 매개변수의기울기를 효율적으로 계산하는 '오차역전파(backpropataion, backward propagation of errors)'에 대해 설명하겠습니다. 오차역전파는 말 그대로 오차를 점점 거슬러 올라가면서 다시 전파하는 것입니다. ​ 이를 설명하기 위해 간단한 문제를 계산 그래프를 이용해 풀어보도록 하겠습니다. 계산 그래프는 계산 과정을 그래프로 나타낸 것을 말합니다. 슈퍼에서 사과를 2개, 귤을 3개 샀습니다. 사과는 1개에 100원, 귤은 1개에 150원입니다. 소비세가 10%일 .. 2023. 3. 4.
[딥러닝 기본지식] 최적화 함수(optimizer)의 이해 - 최적화 함수의 정의와 다양한 종류들 이전 게시물에서 손실 함수의 값을 최소로 하는 매개변수를 찾는 방법인 경사하강법에 대해 설명했습니다. 이를 최적화(optimization)라고 합니다. 현재의 손살 함수 값이 감소하는 방향으로 매개변수를 갱신하는 것입니다. 그림 출처 지금까지 최적의 매개변수 값을 찾는 단서로 매개변수의 기울기(미분)를 이용했습니다. 이번 게시물에서는 최적화를 시키는 다양한 방법들에 대해 설명하겠습니다. - BGD(Batch Gradient Descent, 배치 경사하강법) - SGD(Stochastic Gradient Descent, 확률적 경사하강법) - MSGD(Mini-Batch Stochastic Gradient Descent, 미니-배치 확률적 경사하강법) - Momentum(모멘텀) - Adagrad - Ad.. 2023. 3. 3.
[딥러닝 기본지식] 경사 하강법(Gradient Descent)의 이해 - 정의 ▶ 경사법의 등장 배경 신경망은 최적의 매개변수를 학습 시에 찾아야 합니다. 여기에서 최적이란 손실 함수가 최솟값이 될 때 매개변수 값을 말합니다. 그러나 매개변수 공간이 매우 넓고 크기 때문에 어디가 최솟값인지 한번에 알기는 힘듭니다. 이런 상황에서 기울기를 이용해 함수의 최솟값을 찾는 것이 경사법입니다. 이때, 각 지점에서 함수의 값을 낮출수있도록 하는 지표가 되는 것은 기울기입니다. 기울기가 가리키는 곳에 정말 함수의 최솟값이 있는지 정말 그쪽으로 가는 것이 맞는지 어떻게 보장할 수 있을까요? 실제로 함수에서는 기울기가 가리키는 방향에 최솟값이 없는 경우가 대부분입니다. 기울어진 방향이 최솟값을 가리키는 것은 아니지만, 그 방향으로 가야 함수 값을 줄일 수 있다는건 분명한 사실입니다. 그래서 최솟 .. 2023. 3. 3.
728x90
반응형