Lexikon Definition für Anatomie

Anatomie:
1. Lehre vom Bau tierischer und pflanzlicher Körper. Die klassische Anatomie beschreibt den gesunden Körper, die pathologische Anatomie den kranken Körper. 2. Wissenschaftliches Institut für anatomische Studien.

Weitere Artikel

Anatomie - Lexikon