definición de nutrir el cuerpo
Respuestas a la pregunta
Contestado por
4
Respuesta:
significa aumentar la sustancia del cuerpo animal o vegetal a través del alimento. También hace referencia a aumentar o dar nuevas fuerzas en cualquier línea, especialmente en lo moral.
Otras preguntas