기본 콘텐츠로 건너뛰기

인공신경망


뉴런(Neuron)

활성 함수(Activation)
활성화와 비활성화를 결정한다

직선의 방정식
aX + b = y

곡선의 방정식
W1X1 + W2X2 + W3X3 + ... + b(Bias) = y

손실함수(Loss Function)
추정과 실제의 차이를 계산하는 함수
고차함수로 계산함
Label : 아주 많아짐
Prediction : 추정(실제값과 추정값을 비교해서 최적의 값을 찾아냄)
MSE(각각의 에러의 제곱의 평균,Mean Square Error) : 회귀
MAE
Binary_CrossEntropy : 
Categorical_CrossEntropy

확률적 경사하강법(SGD : Stochastic Gradiant Descendent)
가중치를 올려서 기울기 0(최적의 가중치)을 찾는 방법

최적화(Optimizer) : 학습률을 조정하는 것
학습률을 최적화 해준다
SGD(Stochastic Gradient Descent, 확률적 경사하강법)
Adam : 가장 좋은 옵티마이저

오차 역전파(Backpropagation)
과적합, 과소적합
순정파, 역전파

이 블로그의 인기 게시물