1. Los símbolos A, B, C, D y E ocurren con probabilidades de 1/16, 1/16, 1/8, 1/4, 1/2, respectivamente.
¿Cuánto vale la información si se transmiten los siguientes mensajes suponiendo que estos son estadísticamente independientes?
a) W = CEDA
b) X = BECA
2. Para los mensajes transmitidos W y X del ejercicio anterior el código binario es A=1001; B=1011; C=1000; D=1111, E=1010. Ponderando cada uno con la probabilidad de ocurrencia adecuada, determine:
a) la probabilidad de ocurrencia ceros, para los mensajes W y X.
b) la probabilidad de ocurrencia unos, para los mensajes W y X.
c) la información promedio por palabra del código (Entropía), para los mensajes W y X.
3. Sean F1={1,2,3,4} y F2={3,4,6,9} dos fuentes equiprobables independientes. Sea una fuente F cuya salida es el mínimo común múltiplo de la salida de las fuentes anteriores F mcm(F1,F2). ¿Cuánto vale la entropía de la fuente F?
4. Seleccione un texto al azar de una cantidad máxima de 60 palabras escrito en español y determine:
a) la probabilidad de cada una de las vocales.
b) la Información total que aportan las vocales. (Consideren con igual tratamiento las vocales acentuadas o no).
c) la entropía que aportan todas las vocales.
Bibligrafia recomendada:
Teoría de la Información - Presentación
Teoría de la información (teoría).(La Teoría de la información, ciencia desarrollada por Claude Shannon, en trabajos sobre la teoría matemática de la comunicación, se plantea entre otros, el objetivo de hacer lo más eficiente posible, la transmisión de información de un punto a otro en una red de comunicación)
Respuestas a la pregunta
Contestado por
0
Respuesta:
pasen bien las esplicacion porfa necesito
Otras preguntas
Castellano,
hace 15 días
Química,
hace 1 mes
Matemáticas,
hace 1 mes
Informática,
hace 8 meses
Matemáticas,
hace 8 meses
Informática,
hace 8 meses