ENTROPIA
En el ámbito de la teoría de la información la entropia, también llamada entropia de la información y entropia de Shannon, mide la incertidumbre de una fuente de información.
La entropia también se puede considerar como la cantidad de información promedio que contienen los símbolos usados.
Los símbolos con menor probabilidad son los que aporta mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto.
En el siguiente enlace se encontrara dos simulaciones en Matlab del código Huffman y Cesar los cuales calculan la entropia de una frase:
No hay comentarios:
Publicar un comentario