Historia, pregunta formulada por emillyalondra569, hace 3 meses

Qué papel desempeño/jugó Estados Unidos en la guerra de africa​

Respuestas a la pregunta

Contestado por jesd03
1

Respuesta:

Estados Unidos dominó los asuntos internacionales en los primeros años después de la Segunda Guerra Mundial. Tras la victoria en la gran contienda y al ver que su patria se había librado de la devastación de la  guerra, los estadounidenses se sentían confiados de su misión, tanto en el ámbito nacional como en el  exterior. Los líderes del país deseaban preservar la estructura democrática que habían defendido a tan  enorme costo y querían compartir los beneficios de la prosperidad lo más ampliamente posible. Para ellos,  igual que para el editor de la revista Time, Henry Luce, aquel era "el siglo de Estados Unidos".  Durante 20 años, la mayoría de los estadounidenses se sintieron seguros de ese enfoque basado en la  confianza; aceptaron la necesidad de asumir una posición fuerte contra la Unión Soviética en la Guerra  Fría que se desenvolvió a partir de 1945. Apoyaron el crecimiento de la autoridad del gobierno y aceptaron  las líneas generales del rudimentario estado benefactor formuladas por vez primera en el Nuevo Trato.  Disfrutaban una prosperidad de posguerra que creó nuevos niveles de riqueza.  Sin embargo, poco a poco algunos empezaron a cuestionar los supuestos predominantes. Las  impugnaciones surgidas en diversos frentes destruyeron el consenso. En la década de 1950, los  afroestadounidenses iniciaron una cruzada, a la que más tarde se unirían otros grupos minoritarios y las  mujeres, para gozar de una porción mayor del sueño estadounidense. En los años 60, los estudiantes  políticamente activos protestaron por el papel del país en el exterior, sobre todo en la corrosiva guerra de  Vietnam. Surgió una contracultura juvenil que impugnó el statu quo. Los más diversos sectores de la  población deseaban crear un nuevo equilibrio social y político en Estados Unidos.

Explicación:

Otras preguntas