Filosofía, pregunta formulada por sirley121, hace 8 meses

Debemos decir siempre la verdad?

Respuestas a la pregunta

Contestado por dashaLAPRO
5

Respuesta:

Por qué es importante decir la verdad? Decir las verdades puede ser tan malo como decir mentiras, ya que la bondad de ambas opciones depende de lo que se sabe y de las consecuencias que se sigan de lo que se dice. A pesar de ello, cuando uno es sincero, implica reconocer sus virtudes y defectos

Otras preguntas