[AI] precision과 recall에 대한 고찰
2023. 8. 22. 16:53ㆍAI/이론 정리
Precision = (True Positive ) / (True Positive + False Positive)이다.
이걸 해석하면 내가 참이라고 예측해서 맞은 것의 비율이다. 예를 들어, 100개를 참이라고 예측했는데 100개 모두 참이였다면 정밀도 100%인 것이다.
Recall = (True Positive) / (True Positive + False Negative)이다.
이걸 해석하면 실제 참인 것 중 맞춘 것의 비율이다. 예를 들어, 100개가 참인데 60개 정도만 참이라고 했다면 재현율 60%인 것이다.
그럼 Precision과 Recall을 서로 연관해서 생각해보자. 총 데이터가 200개가 있다고 하자. 내가 100개를 참이라고 예측했는데 그 중 80개가 실제 참이었다. 그러니까 정밀도는 80%이고 꽤 높으므로 좋다고 할 수 있다. 그러나 실제로 참인 데이터가 150개였고 하면 80개만 실제로 맞춘 것이고 이때의 비율은 53%로 꽤나 낮아졌다. 비율이 서로 달라진다는 것을 알 수 있다. 즉, 정밀도는 내가 일단 참이라고 예측하면 실제 80%는 맞는다는 얘기이고 재현율은 그래서 실제 참인 데이터를 기준으로 몇 개를 참으로 말하냐는 이야기이다.
방금 예시로 돌아가본다면 내가 참이라고 말하면 꽤나 잘 맞추는데 참인 것을 참이라고 말 안해서 틀리는 경우도 높다는 것이다.
'AI > 이론 정리' 카테고리의 다른 글
[AI] AUROC에 대한 이해 (0) | 2023.08.22 |
---|---|
[AI] Accuracy의 문제점 (0) | 2023.08.22 |
[이론 정리] 데이터 불균형 (0) | 2023.05.10 |
[이론 정리] micro F1 score과 AUPRC에 대한 개인적 이해 (0) | 2023.05.06 |
[이론정리] tensor dim 정리 (0) | 2023.04.04 |