Historia, pregunta formulada por firumancio11, hace 1 año

como impusieron la cultura los colonizadores en america

Respuestas a la pregunta

Contestado por capital97
6
La impusieron por la fuerza, al punto que la cultura local fue desterrada. 

Desde el siglo XV muchos navegantes europeos estaban muy interesados en conocer y explorar más a fondo el mundo, ya habían diversas figuras que cobraron suma relevancia por los descubrimiento que alegaban haber encontrado tierras desconocidas, tal es el caso de Marco Polo, quien se aventuró en la navegación y llegó a Asia donde estuvo en muchos países de dicho continente, Marco Polo regresó a europa y escribió varios libros donde narraba con lujos de detalles la descripción de los lugares a donde llegó y los paraísos vistos. 


Este hecho llamaba mucho la atención de los principales imperios del momento, especialmente en aquello donde existía monarquías y poseían la ambición de expandir sus territorios y aumentar su riqueza, o por el mero hecho de saber qué había más allá, tal es el caso de la monarquía española. 


Tal es el caso de Cristobal Colón, quien solicitó su permiso ante la corona española para emprender su viaje hacia el lejano oriente descrito por Marco Polo, pero accidentalmente llega a América el 12 de octubre 1492 y descubre dicho continente, de ahí en adelante el proceso de conquista, colonización y adoctrinamiento toma un auge exorbitante y los imperios empiezan a extenderse y a luchar mundialmente por aumentar su poderío.


Un aporte cultural que heredamos de los españoles fue la lengua, la mayoría de los países de américa hablan español, y respecto a los 
aborígenes americanos heredamos algunas costumbres indígenas que hoy permanecen en el tiempo. 
Otras preguntas