Fernando Díaz
Estudiante Matemáticas
Universidad Sergio Arboleda
El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de ``ruido'' o ``desorden'' que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.
Lo primero es introducir la mayoría de definiciones básicas requeridas para el debido desarrollo de la teoría. Después de definir entropía y tasa de entropía, la idea es obtener la entropía de un proceso estocástico tal como lo son las cadenas de Markov.