Ka entropía de Shannon es el número de preguntas sí/no que se necesitan para llegar a la respuesta correcta. imaginemos que queremos saber cuál es la entropía de Shannon de tirar un dado. Los estados posibles del dado al tirarlo son {1,2,3,4,5,6} y la probabilidad de todos es la misma 1/6. Sí alguien tirará el dado que tu no has visto y te preguntará por el número que cayó, tu le dirías los números del 6 al 1 de uno en uno siguiendo el orden de mayor a menor, en el mejor de los casos necesitarías una única pregunta y en el peor 6 preguntas. Para saber cuántas preguntas necesitamos de media debemos tener en cuenta todos los casos posibles y cómo de probables son. En este caso tenemos dicha infomación y podemos aplicar la entropia de shanon para calcular el estimando de preguntas necesarias H(X)=-∑▒〖P_i 〖log〗_2 (x_i ) 〗 Realiza el siguiente cálculo H(X)=-∑▒〖P_i 〖log〗_2 (x_i ) 〗=6*1/6 log_2 (6) Desarrolla la operación con logaritmos. Respuesta: = log2(6)*1 = log 6 / log 2 = 2.5849 Que interpretas del resultado anterior
Respuestas a la pregunta
Contestado por
0
Respuesta:
Nun, meine Liebe, diese Frage ist sehr einfach zu beantworten, aber zunächst einmal lerne dumm, du hast sicher noch nicht einmal deine Grundschule abgeschlossen.
Aber hör auf mit dem Bullshit, ich helfe dir mit einem einzigen Wort, mein Sususu-Brot
Explicación paso a paso:
XD
Otras preguntas
Informática,
hace 2 meses
Biología,
hace 2 meses
Matemáticas,
hace 2 meses
Ciencias Sociales,
hace 3 meses
Ciencias Sociales,
hace 9 meses