Psicología, pregunta formulada por danielatorrado0505, hace 1 año

Cuáles son las relaciones humanas en el trabajo​

Respuestas a la pregunta

Contestado por eduardomanuel200142
0

Las relaciones humanas son las acciones y actitudes desarrollada cuando las personas entran en contacto entre sí y con diversos grupos, son básicas para el desarrollo intelectual e individual de cada ser humano, son muy importantes en el campo del trabajo los directivos deben esforzarse por construir equipos

Otras preguntas