Historia, pregunta formulada por crash8148, hace 1 mes

¿Con que fin se domesticaban los animales en america?​

Respuestas a la pregunta

Contestado por AcostaJoaquinGabriel
1

Respuesta:

Una de las renovaciones culturales más significativas de nuestros anales sucedió hace más de 10.000 años, cuando una sociedad característica de cazadores y recolectores evolucionó hacia nuevas comunidades humanas, las cuales decidieron comenzar a producir su propio alimento. Para ello, esta sociedad emergente se encargó, por primera vez, de efectuar una domesticación de especies, tanto animales como vegetales. La domesticación fue una circunstancia que surgió de manera espontánea en diversos núcleos poblacionales, y que posteriormente fue impuesta como nueva forma de vida por unos inéditos agricultores y ganaderos; un descubrimiento que, además, supuso una serie de importantes consecuencias en el modo de vida de las poblaciones humanas.

Espero que te sirva <3

Otras preguntas