Castellano, pregunta formulada por marianafernandacuric, hace 1 mes

por que cres que siempre es necesario decir la verdad

Respuestas a la pregunta

Contestado por MateoYuncan
1

Respuesta:

Decir la verdad es una manera de empatizar y construir relaciones fuertes y duraderas. Decir la verdad nos hace más humanos , más cercanos y nos permite relacionarnos más y mejor con las personas a las que queremos o con las que tenemos un proyecto en común ( como el trabajo ).

Explicación:

Contestado por enorme362
0

Respuesta:

depende de la situación ya que hay verdades que lastiman, pero la sinceridad es algo importante en las relaciones humanas porque asi se refuerza la relación de x persona a x persona xdxd yo creo nose

Otras preguntas