Encuentra la distancia que debe recorrer una señal desde que se emite hasta que se recibe.
Adjuntos:
Respuestas a la pregunta
Contestado por
14
La distancia que debe recorrer una señal desde que se emite hasta que se recibe es de 80.721 km
Explicación paso a paso:
La distancia que debe recorrer una señal desde que se emite hasta que se recibe viene determinada por la hipotenusa que se forma en el primer triangulo mas la hipotenusa que se forma en el segundo triangulo, para esto utilizaremos el Teorema de Pitagoras:
h = √x²+y²
h1 = √(20000km)² + (30000km)²
h1 = 36.000 km
h2 = √(20000km)² + (40000km)²
h2 =44.721 km
Distancia de la señal:
d = h1+h2
d = 36000 km +44.721 km
d = 80.721 km
Contestado por
6
Respuesta:
Explicación paso a paso:
h1 = √(20000km)² + (30000km)²
h1 = 36.055,51 km
h2 = √(20000km)² + (40000km)²
h2 =44.721,35 km
Distancia de la señal:
d = h1+h2
d = 36055,51 km +44.721,35 km
d = 80.776,87 km
Otras preguntas
Matemáticas,
hace 7 meses
Religión,
hace 7 meses
Geografía,
hace 7 meses
Matemáticas,
hace 1 año
Biología,
hace 1 año