Ciencias Sociales, pregunta formulada por stephaniecrisanto86, hace 11 meses

Qué quiere decir dermatología s

Respuestas a la pregunta

Contestado por zoe847
3

Respuesta:

La dermatología es una especialidad de la medicina que se ocupa del conocimiento y estudio de la piel humana y de las enfermedades que la afectan.

Contestado por saraviy11
1

Respuesta:

sobre la piel

Explicación:

Otras preguntas