Geografía, pregunta formulada por isabelaheanoochoa, hace 11 meses

Qué transformaciones culturales, económicas y políticas se dieron en América a partir de la llegada de los españoles?

Respuestas a la pregunta

Contestado por prudendr30
2

Respuesta:

España fue la que empezó la colonización e incluso la que logró conquistar la mayor parte de América, debido a que fue el país que obtuvo el patrocinio del viaje de descubrimiento por medio de los Reyes Católicos. ... Las armas y las técnicas de guerra españolas eran más avanzadas respecto a las indígenas.

Explicación:

{espero haber ayudado}

Otras preguntas