[플레이데이터 빅데이터 부트캠프]머신러닝 & 딥러닝 머신러닝 성능 평가 지표 정리

머신러닝 성능 평가 지표를 정리하기에 앞서 먼저 실제 정답과 분류 정답에 관해서 그림으로 정리하고 가보자.

 

도형1.png

여기서 제대로 맞추었을 경우 True이고 못 맞추었을 때는 False이다.

True 안에서도 긍정 값을 맞추었을 때 True Positive, 부정 값을 맞추었을 때, True Negative 값이라고 정의한다.

 

정확도 : Accuracy

Accuracy는 올바르게 예측된 데이터의 수를 전체 데이터의 수로 나눈 값입니다. 즉, 아래와 같은 수식으로 나타낼 수 있다.

accuracy.png

재현율 : Recall

accuracy는 데이터에 따라 매우 잘못된 통계를 나타낼 수 있다. 예를 들면 눈 내리는 날을 예측하는 모델을 만들었다고 가정해보자. 계속 Negative로 예측해도 꽤나 높은 accuracy를 가질 수 있을 것이다. recall은 모델이 눈이 내릴거라 예측한 날의 수를 실제로 눈이 내린 날의 수와 나눈 값입니다. (즉 눈이 내릴 거라고 예측한 날과 눈이 오지 않을거라고 예측하였지만 틀린 값의 합과 나눈 값입니다.)

재현율.png

정밀도 : Precision

Precision은 모델이 True로 예측한 데이터 중 실제로 True인 데이터의 퍼센티지 값이다. 위의 재현율에서 만약에 눈이 올것이라고 계속 예측한 모델은 수식에 의해서 재현율 1을 달성할 것이다. 정밀도는 이러한 오류를 보완해주는 역할을 한다.

 

정밀도.png

F1 Score : 정밀도와 재현율의 조화 평균

그러면 정밀도와  재현율을 두 개 다 중요한 지표라는 알게 되었는데, 이것을 이 지표를 조화롭게 하나의 지표로 나타낼 수 없을까? 이 평가 지표를 F1 Score라고 한다.

F1 SCORE.png

즉 F1 Score 값이 높으면 성능이 높다고 할 수 있습니다.

 

참조 블로그 : 머신러닝 분류 평가지표 이해하기(정확도, 정밀도, 재현율, F1 스코어) | by WANGGEON LEE | Medium