Cómo cambió el papel de la mujer en la sociedad a principios del siglo XX?
Respuestas a la pregunta
Contestado por
90
Respuesta:
- cbio despues de que le machismo se halla dejado atras y las mujeres empezaron a tener derchos
pd: espero te halla servido mi respuesta
Contestado por
36
Respuesta:
cambio radicalmente durante la segunda guerra mundial, ya que muchos soldados nunca regresaron con sus familias así que las mujeres tenían que ser "la jefa del hogar" También comenzaron a trabajar junto con adultos mayores que no pudieron ir a la guerra.
Explicación:
Otras preguntas