Ciencias Sociales, pregunta formulada por rinahuamanventura10, hace 2 meses

¿que cambios crees que se dieron a partir del descubrimiento de América?


AYUDAAA PORFA​

Respuestas a la pregunta

Contestado por angeliquebarrioss13
4

Respuesta:

Develamiento del mapa mundial. Conquista y colonización del continente americano por parte de los europeos. Sometimiento de las poblaciones amerindias al orden militar, político, religioso y cultural occidental. Expansión comercial de Europa

Espero y te ayude

Otras preguntas