Ciencias Sociales, pregunta formulada por yolandachacon, hace 1 mes

El imperio británico colonizo las costas del atlántico de América del Norte formando del as

Respuestas a la pregunta

Contestado por mendozasolemily
0

Respuesta:

La Guerra de la Independencia de Estados Unidos cambió la concepción del Imperio británico, lo que se buscaba era mantener el comercio con las antiguas colonias, que ya independientes, podían sufragar sus gastos en defensa y administración.

Explicación:


mendozasolemily: espero q te sirva
Otras preguntas