Historia, pregunta formulada por emerbetanco96, hace 11 meses

Vinieron realmente los españoles a comrtir las enseñanzas cristianas? Explicó ampliamente

Respuestas a la pregunta

Contestado por elyzarel11ml
0

Respuesta:

No realmente ya que ellos solo venían a conquistar América pero nos inculcaron y nos enseñaron la religión católica

Otras preguntas