Historia, pregunta formulada por karenmejia52, hace 6 meses

Menciona que países se descolonizaron por parte de Estados Unidos América y por parte la URSS

Respuestas a la pregunta

Contestado por gatoluck2708
1

Respuesta:

aiva

Explicación:

El término apareció después de finalizar la Segunda Guerra Mundial para referirse al proceso social, impulsado por la Organización de las Naciones Unidas, de poner fin al colonialismo, mayoritariamente europeo, que dio lugar a la independencia nacional de varios continentes, principalmente en África y Asia.

Más recientemente, el término "Descolonización" ha sido usado para referirse a una postura y una operación cultural, tendiente a revelar y revertir situaciones institucionales, culturales y epistemológicas afectadas por el Eurocentrismo y otros mecanismos de subordinación y poder. Este significado está impulsado por las corrientes llamadas poscoloniales y decoloniales.

espero q t ayude:3

Otras preguntas