[플레이데이터 빅데이터 부트캠프]머신러닝 & 딥러닝 머신러닝 성능 평가 지표 정리

머신러닝 성능 평가 지표를 정리하기에 앞서 먼저 실제 정답과 분류 정답에 관해서 그림으로 정리하고 가보자.

 

여기서 제대로 맞추었을 경우 True이고 못 맞추었을 때는 False이다.

True 안에서도 긍정 값을 맞추었을 때 True Positive, 부정 값을 맞추었을 때, True Negative 값이라고 정의한다.

 

정확도 : Accuracy

Accuracy는 올바르게 예측된 데이터의 수를 전체 데이터의 수로 나눈 값입니다. 즉, 아래와 같은 수식으로 나타낼 수 있다.

재현율 : Recall

accuracy는 데이터에 따라 매우 잘못된 통계를 나타낼 수 있다. 예를 들면 눈 내리는 날을 예측하는 모델을 만들었다고 가정해보자. 계속 Negative로 예측해도 꽤나 높은 accuracy를 가질 수 있을 것이다. recall은 모델이 눈이 내릴거라 예측한 날의 수를 실제로 눈이 내린 날의 수와 나눈 값입니다. (즉 눈이 내릴 거라고 예측한 날과 눈이 오지 않을거라고 예측하였지만 틀린 값의 합과 나눈 값입니다.)

정밀도 : Precision

Precision은 모델이 True로 예측한 데이터 중 실제로 True인 데이터의 퍼센티지 값이다. 위의 재현율에서 만약에 눈이 올것이라고 계속 예측한 모델은 수식에 의해서 재현율 1을 달성할 것이다. 정밀도는 이러한 오류를 보완해주는 역할을 한다.

 

F1 Score : 정밀도와 재현율의 조화 평균

그러면 정밀도와  재현율을 두 개 다 중요한 지표라는 알게 되었는데, 이것을 이 지표를 조화롭게 하나의 지표로 나타낼 수 없을까? 이 평가 지표를 F1 Score라고 한다.

즉 F1 Score 값이 높으면 성능이 높다고 할 수 있습니다.

 

참조 블로그 : 머신러닝 분류 평가지표 이해하기(정확도, 정밀도, 재현율, F1 스코어) | by WANGGEON LEE | Medium