MSE(Mean Squared Error, 평균 제곱 오차)는 통계학과 머신러닝에서 주로 사용되는 성능 평가 지표 중 하나다. MSE는 예측값과 실제값 간의 차이를 제곱하여 평균한 값으로, 특정 모델의 예측이 얼마나 정확한지를 나타내는 지표로 활용된다. MSE는 다음과 같은 수식으로 정의된다.
MSE = (1/n) * Σ(yi - ŷi)²
여기서 n은 데이터 포인트의 수, yi는 실제값, ŷi는 예측값을 의미한다. MSE의 특성 중 하나는 오차가 클수록 제곱된 값이 커지기 때문에, 큰 오차에 보다 높은 페널티를 부여하게 된다. 이로 인해 MSE는 큰 오차를 줄이는 데 중점을 두는 모델을 선호하는 경우에 유용하다.
MSE는 값이 0에 가까울수록 모델의 성능이 우수함을 의미하나, MSE 값이 동일하더라도 다른 모델 간 비교를 위해서는 추가적인 지표가 필요할 수 있다. MSE는 또한 정상 분포를 가정하는 경우에 해석이 용이하며, 그라디언트 기반 최적화 알고리즘에서 손실 함수로 널리 사용된다. 그러나 MSE는 아웃라이어에 민감한 단점이 있어, 이러한 상황에서는 다른 지표인 MAE(Mean Absolute Error) 등을 고려할 수 있다.