Ciencias Sociales, pregunta formulada por dianacetina73, hace 2 meses

Que países se formaron después de la segunda guerra mundial ​

Respuestas a la pregunta

Contestado por jennie415626
0

Respuesta:

Francia y el Reino Unido, que habían dominado la política internacional durante los últimos siglos, ceden su influencia ante Estados Unidos y Rusia

Contestado por LYD0123
0

Respuesta:

Francia y El Reino Unido, que habían dominado la política internacional durante los últimos siglos, ceden su influencia ante Estados Unidos y Rusia.

Explicación:

Espero te sirva :)

Otras preguntas