En Francia que cambios trajo la guerra con Alemania???
Respuestas a la pregunta
Contestado por
2
Respuesta:
Las relaciones Alemania-Francia, relaciones franco-alemanas o relaciones germano-francesas son términos que aluden a las relaciones internacionales entre la República Federal de Alemania y la República Francesa. Han sido de gran importancia en el desarrollo de varios de los principales acontecimientos mundiales durante los últimos dos siglos. Así, los grandes conflictos bélicos europeos y mundiales entre 1870 y 1945 enfrentaron a Francia y Alemania
Otras preguntas
Geografía,
hace 6 meses
Matemáticas,
hace 6 meses
Baldor,
hace 6 meses
Matemáticas,
hace 11 meses
Biología,
hace 11 meses
Matemáticas,
hace 1 año
Arte,
hace 1 año