Historia, pregunta formulada por albertoportillo548, hace 3 meses

Fue el fin de la primera Guerra Mundial *
a)Estados Unidos invade Japon
b)España coloniza Mexico
c)Alemania pierde una gran cantidad de Territorios en el "Tratado De Versalles"
d)La Revolución Francesa​

Respuestas a la pregunta

Contestado por retroandrex20
0

Respuesta:

A) Estados Unidos invade Japon

Contestado por pomahucreniver
0

Respuesta:

es la a). ,,,,,,,,,,,,,,,,,

Otras preguntas