Historia, pregunta formulada por NicolleSanttos9692, hace 1 año

Que significado tiene el termino imperialismo?

Respuestas a la pregunta

Contestado por len12869
8
Concretamente significa extender o imponer a otros. Dominar otras tierras usando el poder militar o económico. Se ha llevado en practica por las principales potencias del mundo, como Inglaterra (más que nada), Alemania, España, Francia y el más reciente caso de los Estados Unidos. El imperialismo comenzó con colonias, con extensión de territorios, de imponer religiones e ideas propias, más tarde el imperialismo cambió de mañas, porque dejó de conquistar y anexarse tierras a su territorio, y empezó a manipular por medio de la economía, más que nada es así cómo se nos presenta el imperialismo hoy en día.
Otras preguntas