Entropia Conjunta

Esta calculadora online calcula a entropia conjunta de duas variáveis aleatórias discretas dada uma tabela de distribuição conjunta (X, Y) ~ p

A entropia conjunta é uma medida da "incerteza" associada a um conjunto de variáveis.

Para calcular a entropia conjunta, você deve inserir a matriz de distribuição conjunta onde o valor da célula para qualquer linha i e coluna j representa a probabilidade do resultado {x_i, y_j}, p_{(x_i, y_j)}. Você pode encontrar a fórmula da entropia conjunta abaixo da calculadora.

PLANETCALC, Entropia conjunta

Entropia conjunta

Dígitos após o ponto decimal: 2
Entropia conjunta H(X,Y)
 

Fórmula da Entropia Conjunta

A entropia de conjunta Shannon (em bits) de duas variáveis ​​aleatórias discretas X e Y com imagens \mathcal {X} e \mathcal {Y} é definida como:

\mathrm {H} (X,Y)=-\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}P(x,y)\log _{2}[P(x,y)]

onde x e y são valores específicos de X e Y, respectivamente, P(x,y) é a probabilidade conjunta desses valores ocorrerem juntos, e P(x,y)\log _{2}[P(x,y)] é definido como 0 se P(x,y)=01

URL copiado para a área de transferência
PLANETCALC, Entropia Conjunta

Comentários