Informática, pregunta formulada por carlosespekeno, hace 8 meses

que significa la palabra descubrir en la informática ​

Respuestas a la pregunta

Contestado por marimar184
1

Respuesta:

Un descubrimiento científico debe ser formalizado por una teoría validada por la experimentación. El experimento consiste en la identificación de una señal correspondiente a la hipótesis. No obstante, siempre existe un determinado nivel de "ruido" que enmascara más o menos la señal o proporciona un "falso positivo". La noción de "sigma", vinculada a la desviación típica, permite cualificar la probabilida de que la señal esté bien asociada a la teoría. Se distinguen seis niveles de precisión de medida según la función de error de Gauss:

1 Sigma : 33 % de riesgo de error (1 caso de cada 3)

2 Sigma : 5 % de riesgo de error (1 caso de cada 20). Es un nivel de confianza habitual en los sondeos demoscópicos.

3 Sigma : 0,3 % de riesgo de error (1 caso de cada 333). Una señal a 3 Sigma se suele considerar "significativa" por los investigadores, pero no permite validar oficialmente una teoría científica.

4 Sigma : 0,006 % de riesgo de error (1 caso de cada 15 000).

5 Sigma : 0,00006 % de riesgo de error (1 caso de cada 2 millones). Permite cualificar un descubrimiento científico.

6 Sigma : 1 caso de cada 500 millones. Es el objetivo de precisión de algunos procedimientos industriales.

espero que esto vos ayude :3

Contestado por floridocristopher
0

Respuesta:

jjjjjnkmmmmmmmmmmmmmmmmmmmmmm

Otras preguntas