O significado da palavra

Encontre o significado ou definição de uma palavra em português


Definição de anatomia


f.
Arte de dissecar as partes dos corpos organizados.
Doutrina da estructura das substâncias organizadas. Conjunto dos
conhecimentos, resultantes da dissecção dos corpos organizados,
especialmente do corpo humano.
Dissecação; autópsia.
Fig.
Exame minucioso.
Anályse crítica.
(Do gr. ana + tome)