Historia, pregunta formulada por joeldinosaurio15, hace 3 meses

¿Cambió la Primera Guerra Mundial el papel de la mujer en la sociedad?

a)Muchas mujeres de ambos bandos debieron trabajar en las fábricas, traspasando los límites tradicionales de la casa, los hijos y la iglesia
b)La mayoría de las mujeres acabaron siendo enfermeras en el frente para apoyar a sus soldados
c)No cambió especialmente

Respuestas a la pregunta

Contestado por itzel7274
0

Respuesta:

B

Explicación:

Servian directamente en el campo de batalla como enfermeras

Contestado por hzayda40
0

Explicación:

las mujeres se volverían jefas de familia en proporciones sin precedentes.

Otras preguntas