Historia, pregunta formulada por evangeli1515, hace 1 año

quienes colonizaron norteamérica


vittogr2: Los Ingleses, ya que al España descubrir un nuevo continente ellos, junto a Portugal y Francia decidieron reclamar parte de las tierras
así es como en brasil hablan portugués y en EEUU ingles y en canada ingle y frances

Respuestas a la pregunta

Contestado por macifiestasgarcia
1

Respuesta:

El período del descubrimiento de los Estados Unidos es una etapa histórica de varios siglos en los que se produjeron sucesivos cambios.

América fue descubierta -para los europeos- el 12 de octubre de 1492 por la expedición del navegante Cristóbal Colón al servicio de la Corona de Castilla.

Explicación:

Contestado por Levi4tan
1

Respuesta: Los países que colonizaron américa del norte fueron España,Gran bretaña, Francia y Rusia. España, a parte de ocupar el caribe, centro américa y el cono sur, colonizo los territorios del norte del continente correspondientes a los actuales México, se extendió también por los actuales estados de California,Colorado, Nuevo México, Arizona, Téxas y Florida.

Otras preguntas