que significa desnaturalizar la cultura
Respuestas a la pregunta
Respuesta: Desnaturalizar la cultura se refiere a hacer que la cultura cambie, hacer algo diferente a como ya era, cambiar la estructura social de la cultura.
"¿Qué es lo natural? Lo natural es lo dado, aquello que creemos que es así y que nunca va a cambiar. Lo natural siempre se asocia con lo "normal", con la norma, con la regla. Muchas veces, por no decir siempre, recorremos nuestra vida cotidiana "naturalizando" situaciones, acontecimientos y ciertas cuestiones que en verdad son construcciones sociales, es decir, que podrían ser como son pero también podrían ser de otra manera totalmente diferente."
Explicación: Un ejemplo sencillo para pensar: todas las mañanas entramos al aula y nos sentamos de frente al pizarrón, uno detrás del otro mirando la nuca de nuestros compañeros... ¿esta forma de sentarse en el aula es la misma en todos los lugares del mundo?, ¿fue siempre así o varió con el tiempo?
a eso se refiere, cambiar algo que ya esta tan normalizado