Entropia Conjunta

Esta calculadora online calcula a entropia conjunta de duas variáveis aleatórias discretas dada uma tabela de distribuição conjunta (X, Y) ~ p

Esta página existe graças aos esforços das seguintes pessoas:

Timur

Timur

Julia Gomes

Criado: 2021-05-28 02:51:23, Ultima atualização: 2021-05-28 02:51:23
Creative Commons Attribution/Share-Alike License 3.0 (Unported)

Este conteúdo é licenciado de acordo com a Licença Creative Commons de Atribuição/CompartilhaIgual 3.0 (Unported). Isso significa que você pode redistribuir ou modificar livremente este conteúdo sob as mesmas condições de licença e precisa atribuir ao autor original colocando um hyperlink para este trabalho no seu site. Além disto, favor não modificar qualquer referência ao trabalho original (caso houver) que estiverem contidas neste conteúdo.

A entropia conjunta é uma medida da "incerteza" associada a um conjunto de variáveis.

Para calcular a entropia conjunta, você deve inserir a matriz de distribuição conjunta onde o valor da célula para qualquer linha i e coluna j representa a probabilidade do resultado {x_i, y_j}, p_{(x_i, y_j)}. Você pode encontrar a fórmula da entropia conjunta abaixo da calculadora.

PLANETCALC, Entropia conjunta

Entropia conjunta

Dígitos após o ponto decimal: 2
Entropia conjunta H(X,Y)
 

Fórmula da Entropia Conjunta

A entropia de conjunta Shannon (em bits) de duas variáveis ​​aleatórias discretas X e Y com imagens \mathcal {X} e \mathcal {Y} é definida como:

\mathrm {H} (X,Y)=-\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}P(x,y)\log _{2}[P(x,y)]

onde x e y são valores específicos de X e Y, respectivamente, P(x,y) é a probabilidade conjunta desses valores ocorrerem juntos, e P(x,y)\log _{2}[P(x,y)] é definido como 0 se P(x,y)=01

URL copiado para a área de transferência
PLANETCALC, Entropia Conjunta

Comentários