Que significado tiene el termino imperialismo?
Respuestas a la pregunta
Contestado por
8
Concretamente significa extender o imponer a otros. Dominar otras tierras usando el poder militar o económico. Se ha llevado en practica por las principales potencias del mundo, como Inglaterra (más que nada), Alemania, España, Francia y el más reciente caso de los Estados Unidos. El imperialismo comenzó con colonias, con extensión de territorios, de imponer religiones e ideas propias, más tarde el imperialismo cambió de mañas, porque dejó de conquistar y anexarse tierras a su territorio, y empezó a manipular por medio de la economía, más que nada es así cómo se nos presenta el imperialismo hoy en día.
Otras preguntas
Matemáticas,
hace 6 meses
Historia,
hace 6 meses
Matemáticas,
hace 6 meses
Química,
hace 1 año
Matemáticas,
hace 1 año
Ciencias Sociales,
hace 1 año