Lexikon Definition für Medizin

Medizin:
Die Medizin beschäftigt sich mit dem Erhalt der Gesundheit von unterschiedlichen Lebewesen. Dies schließt sämtliche Tätigkeiten ein, die dazu dienen Krankheiten sowie Verletzungen vorzubeugen, festzustellen, zu lindern und zu heilen.

Weitere Artikel

Medizin - Lexikon