antes los Estados Unidos era un país?
Respuestas a la pregunta
Contestado por
0
Respuesta: anntes estados unidos no era un solo pais sino que hacia parte del continente americano
Explicación:
no se conciderava pais ningun pais de america
Contestado por
1
Respuesta:
Los EE.UU en un primer lugar fueron colonias. Si bine es cierto que fueron enviadas por Inglaterra tras el descubrimiento de América, estas colonias fueron tomando cada vez más independencia debido a que los norteamericanos no eran tomados muy en cuenta en la política inglesa. Finalmente se dio lugar la llamada Guerra de la Independencia con la que se dio lugar a un nuevo sistema democrático independiente cuyo primer presidente fue Abraham Lincoln.
Explicación:
Otras preguntas
Ciencias Sociales,
hace 6 meses
Ciencias Sociales,
hace 6 meses
Religión,
hace 6 meses
Física,
hace 1 año
Matemáticas,
hace 1 año
Matemáticas,
hace 1 año