학습1 [ANN] 08. GDA(Gradient Descent) of Neural Network 지난 시간에 이어서 신경망 학습의 최우선 과제인 학습에 대해서 마저 알아보겠습니다. 학습의 목적은 결국 ANN(인공신경망)모델 내 구성된 변수인 weight, bias에 대해서 최적의 값을 찾아내는 것이고, 이는 Loss Function의 최소값을 찾는 것이라고도 했습니다. 그리고 이를 위해서 미분을 알아보았고, 그 연장선 상으로 GDA(Gradient Descent Algorithm, 경사하강법)에 대해서 운을 살짝 뗐습니다. 그럼 이제는 본격적으로 GDA를 통해서 Global Min 과 Local Min을 찾는 여정을 떠나보겠습니다. 인공신경망(ANN)의 개요 및 퍼셉트론과의 차이점 인공신경망(ANN)의 활성화함수(AF, Activation Function) 인공신경망(ANN)의 출력층 설계 및 순전.. 2020. 5. 15. 이전 1 다음