Перекрестная энтропия - это мера неопределенности, используемая для оценки качества предсказания вероятностной модели. Она используется в задачах классификации, когда модель предсказывает вероятности классов для каждого объекта, и мы хотим оценить, насколько эти предсказания соответствуют реальным классам объектов.
Перекрестная энтропия определяется как сумма произведений вероятностей предсказанных классов на логарифм этих вероятностей:
H(p, q) = - ∑_i p_i log(q_i),
где p - вектор предсказанных вероятностей, q - вектор реальных классов.
Чем меньше перекрестная энтропия, тем точнее модель предсказывает классы объектов. Это связано с тем, что при малых значениях H(p, q), предсказанные вероятности p_i близки к реальным классам q_i, и наоборот.
Одним из преимуществ перекрестной энтропии является то, что она хорошо подходит для оптимизации, особенно в задачах классификации. Квадратичная ошибка, или среднеквадратичная ошибка (MSE), может привести к “переобучению” модели, когда она начинает предсказывать слишком точные значения, но не может обобщать на новые данные. Перекрестная энтропия же более устойчива к таким эффектам и позволяет модели обучаться более эффективно.