Historia, pregunta formulada por camig174, hace 11 meses

¿Que importancia tiene para la sociedad occidental actual que los aliados hayan ganado la segunda guerra mundial??​

Respuestas a la pregunta

Contestado por NelsonRommel
1

Respuesta:

Una importancia fundamental. La sociedad occidental y capitalista (y sus valores) se habrían derrumbado por completo si ganaba el eje.

Tan solo basta con imaginar las terribles consecuencias que hubiera desencadenado la ocupación nipona y alemana en todo occidente, violando mujeres, exterminando judíos y disidentes, persiguiendo a los cristianos, etcétera

Otras preguntas