Geografía, pregunta formulada por dhaylin02, hace 1 año

quienes vienen a colonizar américa del norte

Respuestas a la pregunta

Contestado por PerfectMoonlight
3
Los que vinieron a colonizar américa del norte fueron los ingleses... En 1583 la Reina Isabel I de Inglaterra otorga una autorización al pirata Sir Walter Raleigh para fundar una colonia al Norte de Florida, a la que llamaría Virginia y que abarcaría Carolina del Sur,Carolina del Norte, Virginia, Virginia Occidental y Maine. (EE.UU)
Otras preguntas