Tecnología y Electrónica, pregunta formulada por matiasrussolacerna, hace 1 mes

1. Los símbolos A, B, C, D y E ocurren con probabilidades de 1/16, 1/16, 1/8, 1/4, 1/2, respectivamente.

¿Cuánto vale la información si se transmiten los siguientes mensajes suponiendo que estos son estadísticamente independientes?

a) W = CEDA

b) X = BECA

2. Para los mensajes transmitidos W y X del ejercicio anterior el código binario es A=1001; B=1011; C=1000; D=1111, E=1010. Ponderando cada uno con la probabilidad de ocurrencia adecuada, determine:

a) la probabilidad de ocurrencia ceros, para los mensajes W y X.

b) la probabilidad de ocurrencia unos, para los mensajes W y X.

c) la información promedio por palabra del código (Entropía), para los mensajes W y X.

3. Sean F1={1,2,3,4} y F2={3,4,6,9} dos fuentes equiprobables independientes. Sea una fuente F cuya salida es el mínimo común múltiplo de la salida de las fuentes anteriores F mcm(F1,F2). ¿Cuánto vale la entropía de la fuente F?

4. Seleccione un texto al azar de una cantidad máxima de 60 palabras escrito en español y determine:

a) la probabilidad de cada una de las vocales.

b) la Información total que aportan las vocales. (Consideren con igual tratamiento las vocales acentuadas o no).

c) la entropía que aportan todas las vocales.

Bibligrafia recomendada:

Teoría de la Información - Presentación

Teoría de la información (teoría).(La Teoría de la información, ciencia desarrollada por Claude Shannon, en trabajos sobre la teoría matemática de la comunicación, se plantea entre otros, el objetivo de hacer lo más eficiente posible, la transmisión de información de un punto a otro en una red de comunicación)

Respuestas a la pregunta

Contestado por adelaaquino645
0

Respuesta:

pasen bien las esplicacion porfa necesito

Otras preguntas