Historia, pregunta formulada por abyzetr, hace 3 meses

¿que hizo estados unidos ara ganar territorio de estados unidos?

Respuestas a la pregunta

Contestado por gustavochre
2

Respuesta:

Washington.- Estados Unidos entró hace un siglo en la Primera Guerra Mundial, lo que lo convirtió en una potencia mundial mientras las naciones europeas quedaban atrapadas en un conflicto que dejó millones de muertos y arrasó el Viejo Continente.

Explicación:

Otras preguntas