CROSS-ENTROPY 비용 함수
Cross entropy는 Softmax 함수를 이용한 다중 분류의 비용, 즉 오차에 대한 평가를 나타내기 위한 용도입니다. 기본적인 공식은 다음과 같습니다.
$S_{i}:$ Softmax 함수의 출력값, $S(\overline{y})=\overline{Y}$
$L_{i}:$ Label값. 실제값이다. $L=Y, \; A,B,C$ 범주 중 $A$가 정답일때, $\begin{bmatrix} 1\0\0 \end{bmatrix}$
이제 이 식이 어째서 비용함수인지 알아봅시다. 위의 식을 다시 나타내면 다음과 같습니다.
$\sum$ 안으로, $log$ 앞으로 마이너스 부호가 이동했습니다. 여기서 우리는 $-log$함수를 알아볼 필요가 있습니다. 먼저 그래프부터 봅시다.
자 설명 들어갑니다잉. 지난번에 나온 Softmax 함수의 결과물을 기억하시나요? 네, $\begin{bmatrix}... read more
Comments