Ciencias Sociales, pregunta formulada por nidiacadavid24, hace 5 meses

. Explica cuál fue el papel de la iglesia en América?​

Respuestas a la pregunta

Contestado por henryjoelpintado
0

Respuesta:

la institución de la fe católica justificó los abusos cometidos sobre la población local, bajo la excusa de que era necesario y otorgó a sí misma la potestad divina de enseñarles la doctrina católica a los indios “salvajes” que describían.

Otras preguntas