Matemáticas, pregunta formulada por scailar2005, hace 1 año

Encuentra la distancia que debe recorrer una señal desde que se emite hasta que se recibe.

Adjuntos:

Respuestas a la pregunta

Contestado por luismgalli
14

La distancia que debe recorrer una señal desde que se emite hasta que se recibe es de 80.721 km

Explicación paso a paso:

La distancia que debe recorrer una señal desde que se emite hasta que se recibe viene determinada por la hipotenusa que se forma en el primer triangulo mas la hipotenusa que se forma en el segundo triangulo, para esto utilizaremos el Teorema de Pitagoras:

h = √x²+y²

h1 = √(20000km)² + (30000km)²

h1 = 36.000 km

h2 = √(20000km)² + (40000km)²

h2 =44.721 km

Distancia de la señal:

d = h1+h2

d = 36000 km +44.721 km

d = 80.721 km

Contestado por blackist
6

Respuesta:

Explicación paso a paso:

h1 = √(20000km)² + (30000km)²

h1 = 36.055,51 km

h2 = √(20000km)² + (40000km)²

h2 =44.721,35 km

Distancia de la señal:

d = h1+h2

d = 36055,51 km +44.721,35 km

d = 80.776,87 km

Otras preguntas