Qué quiere decir dermatología s
Respuestas a la pregunta
Contestado por
3
Respuesta:
La dermatología es una especialidad de la medicina que se ocupa del conocimiento y estudio de la piel humana y de las enfermedades que la afectan.
Contestado por
1
Respuesta:
sobre la piel
Explicación:
Otras preguntas
Ciencias Sociales,
hace 6 meses
Matemáticas,
hace 6 meses
Ciencias Sociales,
hace 6 meses
Historia,
hace 11 meses
Geografía,
hace 11 meses
Inglés,
hace 1 año
Historia,
hace 1 año