Data & ComputingAprendizado de MáquinaUniversity
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS

Perda de Entropia Cruzada Binária Calculator

Função de perda para classificação.

Use the free calculatorCheck the variablesOpen the advanced solver
This is the free calculator preview. Advanced walkthroughs stay in the app.
Result
Ready
Loss

Formula first

Overview

A Perda de Entropia Cruzada Binária, ou Perda Logarítmica, quantifica a diferença entre duas distribuições de probabilidade: os rótulos binários reais e as probabilidades previstas. Ela aplica uma penalidade logarítmica pesada a previsões que são confiantes, mas incorretas, guiando algoritmos de otimização como o gradiente descendente a melhorar a precisão do modelo.

Symbols

Variables

y = True Label (0/1), p = Predicted Prob, L = Loss

True Label (0/1)
Variable
Predicted Prob
Variable
Loss
Variable

Apply it well

When To Use

When to use: Esta função foi projetada especificamente para tarefas de classificação binária onde a saída é um único valor de probabilidade entre 0 e 1. É mais comumente usada como a função objetivo para regressão logística e redes neurais que utilizam uma função de ativação sigmoide na camada de saída.

Why it matters: Ao contrário do erro de classificação simples, esta função de perda é diferenciável, o que é essencial para a retropropagação no aprendizado profundo. Ela garante que o modelo seja penalizado mais severamente por estar 'confiantemente errado' do que por estar 'incertamente errado', levando a previsões probabilísticas mais robustas.

Avoid these traps

Common Mistakes

  • Usar log base 10 (use logaritmo natural).
  • p=0 ou p=1 exatamente (causa infinito).

One free problem

Practice Problem

Um modelo de diagnóstico médico prevê uma probabilidade de 0,85 de um paciente ter uma condição específica. Se o paciente realmente tem a condição (y=1), calcule a perda de entropia cruzada binária.

Hint: Como y=1, a fórmula se simplifica para L = -ln(p).

The full worked solution stays in the interactive walkthrough.

References

Sources

  1. Wikipedia: Cross-entropy
  2. Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville
  3. Deep Learning (Goodfellow, Bengio, Courville)
  4. Pattern Recognition and Machine Learning (Bishop)
  5. Goodfellow, Bengio, and Courville Deep Learning
  6. Bishop Pattern Recognition and Machine Learning
  7. Standard curriculum — Machine Learning