Historia, pregunta formulada por eduardo192conde, hace 5 meses

por qué crees tú que es importante lo necesario decir la verdad justifica tu respuesta​

Respuestas a la pregunta

Contestado por rocioyupanqui8paszst
4

Respuesta:

Explicación:

Decir la verdad nos hace más humanos , más cercanos y nos permite relacionarnos más y mejor con las personas a las que queremos y con la verdad te sentirás mejor por que no ocultas ningún secreto ya que estableces una buena confianza con la otra persona.

Otras preguntas