Ciencias Sociales, pregunta formulada por angelina1312, hace 11 meses

cuáles fueron los países europeos que dominaban los territorios africanos ​

Respuestas a la pregunta

Contestado por StephannyBautista
2

Respuesta:

los países europeos fueron: Alemania., Bélgica., España, Francia, Italia, Portugal, Reino Unido ,Estados independientes

Explicación:

Otras preguntas